Blog

  • Netflix finalmente se abre a los estrenos cinematográficos en condiciones, comenzando con la próxima película de “Narnia”.

    Netflix finalmente se abre a los estrenos cinematográficos en condiciones, comenzando con la próxima película de “Narnia”.

    Netflix nunca ha sido amigo de las salas de cine. Durante la mayor parte de su existencia como estudio cinematográfico, la plataforma de streaming ha tratado a los cines como una parada a regañadientes: un breve desvío antes de que el contenido llegue a su destino final: tu sofá. Eso está empezando a cambiar, y la compañía está llevando a cabo este cambio de la forma más llamativa posible.

    La plataforma de streaming anunció el viernes que Narnia: El sobrino del mago, de Greta Gerwig, tendrá un estreno en cines a gran escala el 12 de febrero de 2026, con un periodo de exclusividad de 45 días antes de su llegada a la plataforma el 2 de abril. Para una compañía que históricamente ha tratado los estrenos en cines como una estrategia para ganar premios en lugar de una estrategia de distribución, este es un paso significativo.

    La Narnia de Gerwig es la película adecuada para hacer esta apuesta.

    Hay una razón por la que Netflix eligió esta película para romper con lo establecido. El sobrino del mago , la historia del origen del universo de Narnia , adaptación de la novela de C.S. Lewis de 1955, tiene el tipo de atractivo multigeneracional e intercultural que exige una gran pantalla. Gerwig, recién salida del fenómeno cultural que fue Barbie , es posiblemente la directora más rentable de la actualidad, y la franquicia de Narnia cuenta con décadas de fidelidad por parte de los lectores. Si Netflix alguna vez iba a confiar en una película para que se estrenara en cines por mérito propio y no solo por su elegibilidad para los Óscar, esta era la indicada.

    Los dueños de los cines están encantados, y con razón.

    La industria de la exhibición cinematográfica ha visto cómo el streaming erosionaba lentamente su influencia durante años, por lo que el entusiasmo es comprensible. El presidente de Cinema United, Michael O'Leary, lo calificó de "buena noticia", y Adam Aron, de AMC, prometió el apoyo total de la cadena. No se trata solo de una estrategia de relaciones públicas: son empresas que necesitaban urgentemente que un gigante del streaming las tomara en serio como socio de distribución, en lugar de considerarlas simplemente un requisito.

    El tono de Netflix ha ido cambiando desde hace tiempo. La compañía estrenó el año pasado una versión cinematográfica interactiva de la película de K-pop Demon Hunters , y su director ejecutivo, Ted Sarandos, en medio de la puja por Warner Bros. Discovery, se comprometió públicamente a respetar el estreno tradicional en cines para los títulos de WBD. El anuncio de Narnia da la impresión de que la compañía finalmente se está reconciliando con la realidad de que algunas películas son demasiado grandes para estrenarse en un televisor de 55 pulgadas.

  • Los centros de datos espaciales parecen una utopía. ¿Y si los instalamos en farolas?

    Los centros de datos espaciales parecen una utopía. ¿Y si los instalamos en farolas?

    SpaceX tiene ambiciosos planes para centros de datos de IA en el espacio , mientras que Microsoft ha explorado la idea sumergiéndolos bajo el agua . Sin embargo, construir centros de datos de IA es costoso y consume mucha energía. Por eso, una empresa británica quiere construir uno utilizando farolas en Nigeria, y ya ha firmado un acuerdo para hacerlo.

    Conflow Power Group, con sede en Warwickshire, ha llegado a un acuerdo con el gobierno del estado de Katsina, en Nigeria, para instalar 50.000 farolas inteligentes alimentadas por energía solar, llamadas iLamps, en todo el estado (vía BBC ). Cada unidad funciona con un panel solar cilíndrico y una batería, que alimentan un chip Nvidia de bajo consumo que consume tan solo 15 vatios.

    Según CPG, conectadas en red, estas unidades ofrecerían una potencia de cálculo combinada de 13,75 petaOPS sin consumir un solo vatio de la red eléctrica. En comparación, un centro de datos tradicional suele necesitar 300 megavatios de energía eléctrica, millones de litros de agua de refrigeración y años para su construcción.

    ¿Qué otras funciones pueden cumplir estas farolas?

    Cada iLamp puede admitir cámaras para el control del tráfico, la detección de vehículos que exceden la velocidad permitida, infracciones de estacionamiento y el incumplimiento del uso del cinturón de seguridad. El reconocimiento facial para identificar a personas buscadas o desaparecidas también está previsto, aunque aún no se ha implementado.

    Las unidades también ofrecen conexión Wi-Fi pública y Bluetooth. Katsina obtendrá ingresos por las multas de tráfico captadas por las cámaras, y CPG recibirá una participación del 20 % después de tres años. Los ingresos por el alquiler de capacidad de procesamiento a empresas de IA se destinan a un bono verde que financia la instalación y el mantenimiento.

    ¿Pueden las farolas realmente reemplazar a los centros de datos?

    Según los expertos, las iLamps no reemplazarán a los centros de datos convencionales para cargas de trabajo de IA pesadas, ya que la distancia entre los postes ralentiza demasiado la comunicación para tareas exigentes. Sin embargo, podrían servir como puntos de acceso útiles para tareas de IA más sencillas, funcionando de forma similar a las antenas de telefonía móvil.

    Si se finalizan todas las negociaciones en curso entre los siete estados, universidades e instituciones nigerianas, la red total podría superar las 300.000 unidades iLamp, conformando la mayor red distribuida de computación de IA del continente.

    Todo esto ocurre mientras la infraestructura de IA sigue ejerciendo presión sobre los recursos mundiales, y los expertos advierten que podría empeorar significativamente la crisis de residuos electrónicos que ya está asfixiando al planeta.

  • Esta película independiente, con una puntuación del 99% en Rotten Tomatoes, es una de las 3 películas infravaloradas de Hulu que no te puedes perder este fin de semana (2 y 3 de mayo).

    Esta película independiente, con una puntuación del 99% en Rotten Tomatoes, es una de las 3 películas infravaloradas de Hulu que no te puedes perder este fin de semana (2 y 3 de mayo).

    La película recomendada para este fin de semana se sitúa entre lo silencioso y lo insoportable. Un hombre afligido excava en tierra antigua buscando una puerta que no debería existir. Dos hermanos toman una mala decisión que lo desmorona todo. Y un hombre incapaz de hablar de su dolor termina representándolo en un escenario.

    Tres películas, muy diferentes en tono, pero todas girando en torno a la misma idea: ¿qué sucede cuando aquello que buscas te arrastra a un lugar del que no puedes regresar?

    También tenemos guías sobre las mejores películas nuevas para ver en streaming , las mejores películas en Netflix , las mejores películas en Hulu , las mejores películas gratuitas y las mejores películas en Amazon Prime Video .

    La Quimera (2023)

    Josh O'Connor interpreta a Arthur, un desaliñado arqueólogo británico recién salido de una prisión italiana, con un don extraordinario para percibir lo que yace bajo tierra. Se reencuentra con una banda de saqueadores de tumbas que roban sepulcros etruscos y venden los artefactos. Pero Arthur no busca tesoros. Busca una mítica puerta al inframundo, con la esperanza de que lo lleve de vuelta con la mujer que perdió.

    Esta joya oculta te envuelve en una bruma onírica, a la vez divertida y melancólica, pero sutilmente mágica. La película transita entre mundos con total naturalidad. Me gusta mucho cómo combina el dolor y el absurdo en un mismo plano, sin obligar a ninguno a explicarse.

    Puedes ver La Chimera en Hulu .

    Cuando el mal acecha (2023)

    Esta película de terror argentina te sumerge en un remoto pueblo rural donde dos hermanos descubren a un hombre cuyo cuerpo se ha convertido en el recipiente de un demonio en gestación. Su intento por lidiar con la situación fracasa estrepitosamente, y lo que sigue es una de las películas de terror más implacablemente sombrías y brutales de los últimos tiempos.

    Cuando Evil Lurks construye su propia mitología rígida en torno a la posesión demoníaca, el horror reside precisamente en ver cómo esas reglas se ignoran una a una. La película no se inmuta, pero tampoco ofrece consuelo. Me gusta mucho cómo trata el mal como algo casi intrínseco, arraigado en la negligencia y las malas decisiones, en lugar de una confrontación dramática. No es apta para personas sensibles, pero es verdaderamente inolvidable.

    Puedes ver When Evil Lurks en Hulu .

    Luz fantasmal (2024)

    Dan es un obrero de la construcción que ha construido toda su identidad en torno al silencio. Cuando un grupo de teatro local lo invita a participar en una producción de Romeo y Julieta, lo último que espera es que Shakespeare lo conmueva profundamente. Esta es una película sobre el duelo que no se anuncia como tal, y precisamente eso es lo que la hace tan efectiva.

    El reparto es una auténtica familia de teatro de Chicago: padre, madre e hija, que interpretan versiones de sí mismos, y esa intimidad se percibe en cada escena. Me gusta mucho cómo la película utiliza el caos de Romeo y Julieta como un espejo de lo que esta familia vive en silencio. Se estrenó en Sundance, obtuvo un 99% en Rotten Tomatoes, pero, por alguna razón, la mayoría de la gente aún no la ha visto.

    Puedes ver Ghostlight en Hulu .

  • Los gigantes tecnológicos estadounidenses están despidiendo empleados para invertir en IA; China afirma que es ilegal aquí.

    Los gigantes tecnológicos estadounidenses están despidiendo empleados para invertir en IA; China afirma que es ilegal aquí.

    Hay una crueldad particular en la situación de Zhou que me sigue impactando. El hombre dedicó su jornada laboral a interactuar con la IA —probándola, corrigiéndola, perfeccionándola— y luego vio cómo esa misma tecnología le daba a su empleador la excusa perfecta para despedirlo. Su empresa, una compañía tecnológica de Hangzhou, lo reemplazó con los grandes modelos lingüísticos que él mismo supervisaba, le ofreció un puesto de menor categoría con una reducción salarial del 40 % y rescindió su contrato cuando se negó a aceptarlo. Un tribunal acaba de dictaminar que esto era ilegal en dos ocasiones.

    Lo que las empresas estadounidenses están haciendo abiertamente, los tribunales chinos ahora lo están bloqueando.

    El patrón en el sector tecnológico estadounidense es innegable. Las empresas anuncian grandes inversiones en IA y, acto seguido, despiden empleados o incluso en el mismo trimestre. El mensaje es claro: estamos automatizando esto, y ustedes son el ahorro que lo financia. Meta, Microsoft, Google: la lista de empresas que reducen personal e invierten miles de millones en infraestructura de IA sigue creciendo. La lógica se da por sentada. La IA es el futuro , los humanos son un gasto innecesario y el mercado recompensa la transición.

    Los tribunales chinos, al menos en algunos casos, están rebatiendo directamente esa lógica. El Tribunal Popular Intermedio de Hangzhou dictaminó que la disrupción de un puesto de trabajo por la IA no cumple, por sí sola, con el umbral legal para el despido. Un panel de arbitraje de Pekín expresó algo similar el año pasado, cuando un trabajador de mapeo de datos fue despedido después de que su empresa adoptara la IA: la adopción de una nueva tecnología es una decisión empresarial, no un evento incontrolable. No se puede tratar la propia decisión estratégica como un desastre natural y pasarle la factura al empleado. El puesto alternativo que se le ofreció a Zhou —en la misma empresa, con un 40 % menos de sueldo— también fue considerado irrazonable por el tribunal. Así que no fue solo el despido lo que fue ilegal. Todo el proceso de desvinculación lo fue.

    Alguien tiene que pagar por la automatización, y ahora mismo siempre es el trabajador.

    ¿Quién paga por la automatización ? De eso tratan realmente estos casos, más allá del lenguaje legal. Cuando una empresa decide reemplazar una función humana con software, esa decisión genera ahorros, mayor eficiencia y, en el contexto actual, un aumento en la confianza de los inversores. La persona cuyo puesto ha desaparecido recibe una indemnización por despido, si tiene suerte; si no, un informe de reestructuración.

    El argumento implícito de las empresas es que el puesto ya no existe, por lo que el contrato queda anulado. Suena casi razonable hasta que se analiza detenidamente. El puesto no desapareció por sí solo. Alguien tomó una decisión en la junta directiva, hizo los cálculos y concluyó que la tecnología era más barata. Esa decisión tiene consecuencias, y la sentencia de Hangzhou establece que esas consecuencias no pueden trasladarse discretamente a la persona que realizaba el trabajo.

    China no es precisamente un modelo en materia de derechos laborales en el sentido más amplio. Y, al mismo tiempo, el gobierno central está impulsando a las industrias a adoptar la IA con mayor agresividad que en cualquier otro lugar del mundo. La tensión entre este mandato centralizado y la protección que los tribunales brindan a los trabajadores frente a sus consecuencias sigue sin resolverse y, sinceramente, resulta fascinante. Zhou perdió su salario de 300.000 yuanes. Pero el argumento que presentó ante el tribunal —que su empleador utilizó la IA como pretexto, no como razón— sigue vigente, y es un argumento que los trabajadores de muchos otros países pronto podrían querer adoptar.

  • Microsoft creó un agente de IA para abogados en Word. Esperemos que no se descontrole.

    Microsoft creó un agente de IA para abogados en Word. Esperemos que no se descontrole.

    Microsoft Word incorpora un agente legal con IA, lo cual suena útil hasta que recordamos los malos resultados que se han obtenido anteriormente. El nuevo agente legal puede revisar contratos, sugerir ediciones, comparar versiones y señalar cláusulas de riesgo dentro de Word. En teoría, estas funciones parecen bastante útiles y prácticas; sin embargo, casos de herramientas de IA generativa que, mediante alucinaciones, inventan casos, citas y referencias completas de la nada, han causado problemas legales a personas reales.

    ¿Qué puede hacer el agente legal de Microsoft?

    Microsoft afirma que Legal Agent está disponible a través de Copilot en Word para los usuarios de su programa Frontier en EE. UU. Actualmente funciona en Word para Windows. No se requiere ninguna aplicación ni instalación adicional, aunque algunos usuarios podrían necesitar reiniciar Word para que aparezca el agente.

    Legal Agent está diseñado para la revisión de contratos y documentos. Microsoft afirma que puede cotejar cláusula por cláusula de un contrato con un manual legal, revisar un acuerdo completo, comparar diferentes versiones, identificar riesgos y obligaciones, y sugerir ediciones con control de cambios. Además, conserva intactos el formato original, las tablas, las listas y el historial de negociación.

    La empresa también intenta evitar el peor escenario posible, tanto para sus usuarios como para sí misma. La función incluye medidas de seguridad integradas, como la provisión de citas vinculadas al texto original, para que los revisores puedan consultar las sugerencias antes de utilizarlas. Además, se incluyen avisos legales claros que indican que no ofrece asesoramiento jurídico, que puede generar contenido inexacto y que, aun así, requiere la revisión de un profesional jurídico cualificado antes de su uso.

    ¿Por qué deberían seguir estando nerviosos los abogados?

    Ya existen precedentes de IA descontrolada en el ámbito legal: en 2023, dos abogados neoyorquinos fueron sancionados y multados con 5000 dólares tras presentar un documento judicial que incluía casos falsos generados por ChatGPT. Michael Cohen, exabogado de Donald Trump, también admitió haber proporcionado, sin saberlo, a su abogado citas falsas generadas por Google Bard. Si bien Cohen no fue sancionado, el juez calificó el incidente de vergonzoso e hizo hincapié en la necesidad de ser escépticos al utilizar la IA en el trabajo jurídico.

    No se trata de casos aislados, ya que los jueces han cuestionado o sancionado a abogados en múltiples ocasiones relacionadas con presentaciones asistidas por IA, y un científico de datos y abogado francés identificó cientos de documentos judiciales que contenían citas falsas y referencias inexistentes durante el último año.

    El mayor problema es que las alucinaciones persisten . Los chatbots de IA aún pueden ofrecer respuestas que suenan seguras, aunque sean parcial o totalmente erróneas. En el ámbito legal, esto es especialmente peligroso, ya que una cita inventada o un caso ficticio pueden acabar en una demanda y acarrear graves consecuencias.

    Microsoft ha implementado numerosas medidas de seguridad en Legal Agent para prevenir estos problemas; sin embargo, la lección ya está plasmada en los registros judiciales. La IA puede agilizar el trabajo legal, pero la responsabilidad de verificar los hechos sigue recayendo en el abogado.

  • Un estudio de Oxford afirma que un amigo con inteligencia artificial te mentirá y alimentará tus falsas creencias.

    Un estudio de Oxford afirma que un amigo con inteligencia artificial te mentirá y alimentará tus falsas creencias.

    Intentar que la IA parezca más humana podría estar generando un problema mayor de lo esperado. Un nuevo estudio del Instituto de Internet de Oxford reveló que los chatbots diseñados para ser cálidos y amigables tienen más probabilidades de engañar a los usuarios y reforzar creencias erróneas.

    La investigación reveló que la IA se vuelve menos fiable a medida que empieza a ser más complaciente.

    ¿Qué le sucede a una IA “amigable”?

    Los investigadores probaron varios modelos de IA entrenándolos para que sonaran más empáticos y conversacionales. El resultado fue una notable disminución en la precisión. Estas versiones más "amigables" cometieron entre un 10 % y un 30 % más de errores y fueron aproximadamente un 40 % más propensas a estar de acuerdo con afirmaciones falsas en comparación con sus contrapartes.

    La situación empeoraba aún más cuando los usuarios parecían vulnerables o emocionalmente angustiados. En estos casos, la IA tiende a validar lo que dice el usuario en lugar de corregirlo.

    Por qué esto es malo para ti

    Lo preocupante de los hallazgos fue la facilidad con la que la IA podía volverse complaciente. Evitaba cuestionar la desinformación y tendía a considerar y respaldar ideas erróneas o incorrectas. Durante las pruebas, se observó que el "compañero" de IA dudaba en corregir incluso afirmaciones ampliamente desacreditadas y, en ocasiones, presentaba creencias falsas como "abiertas a interpretación". Los investigadores señalaron que esto se asemejaba, en cierta medida, a las tendencias humanas.

    Ser empático y brutalmente honesto al mismo tiempo no siempre es fácil, y parece que la IA no maneja este dilema mejor. Con el uso cada vez mayor de chatbots de IA para brindar asesoramiento, apoyo emocional y facilitar la toma de decisiones cotidianas, esto va más allá de una mera preocupación académica. El estudio destaca cómo confiar en la IA para obtener orientación puede ser contraproducente, ya que el sistema priorizará el consenso sobre la precisión, lo que puede reforzar patrones de pensamiento dañinos y promover la desinformación.

    Esto llega en un momento en que las principales plataformas de IA, como OpenAI y Anthropic , junto con aplicaciones de chatbot social como Replika y Character.ai , están apostando por experiencias de IA más parecidas a las de un compañero. En el estudio, los investigadores probaron varios modelos de IA, incluido GPT-4o .

    Puede que la IA te parezca tu amiga, pero no siempre tiene las mejores respuestas para ti.

  • ¿La IA se ha vuelto elitista? Una investigación revela que el acceso está sesgado hacia los ricos, lo que podría generar una nueva brecha social.

    ¿La IA se ha vuelto elitista? Una investigación revela que el acceso está sesgado hacia los ricos, lo que podría generar una nueva brecha social.

    Un nuevo estudio ha revelado que el acceso y la comprensión de las herramientas de inteligencia artificial (IA) se concentran cada vez más entre las personas con mayores ingresos y nivel educativo, lo que genera preocupación por la creciente brecha digital . La investigación, basada en datos de más de 10 000 adultos en Estados Unidos, muestra que las personas con mayores ingresos y niveles educativos tienen una probabilidad significativamente mayor de conocer, familiarizarse y utilizar activamente las tecnologías de IA.

    La falta de conocimiento y uso está generando una nueva brecha.

    El estudio pone de manifiesto un patrón claro: las personas de entornos socioeconómicos más desfavorecidos tienen menos probabilidades de reconocer dónde se utiliza la IA o de comprender cómo beneficiarse de ella. Esta brecha va más allá del simple acceso a dispositivos o a internet y refleja diferencias en el conocimiento, las habilidades y el uso.

    Los investigadores describen esto como una nueva forma de desigualdad digital . Si bien la IA se está integrando en herramientas cotidianas —desde sistemas de contratación hasta plataformas de contenido—, quienes comprenden su funcionamiento pueden aprovecharla. Por ejemplo, los solicitantes de empleo que saben que la IA se utiliza en la selección de personal pueden adaptar sus currículos en consecuencia, mientras que otros pueden perder oportunidades sin darse cuenta del motivo.

    Por qué esto importa ahora

    Estos hallazgos se producen en un momento en que la IA está transformando rápidamente las industrias, la educación y la vida cotidiana. A diferencia de las brechas digitales anteriores, que se centraban principalmente en el acceso a internet, la brecha actual es más compleja. Incluye la falta de conocimiento, la capacidad de usar la IA de manera efectiva y los beneficios que se obtienen de ella.

    Los expertos advierten que esto podría reforzar las desigualdades existentes. Quienes poseen un mayor conocimiento de la IA no solo están mejor preparados para usarla de forma productiva, sino que también son más conscientes de sus riesgos, como la desinformación o las falsificaciones profundas (deepfakes). Por el contrario, quienes tienen un conocimiento limitado pueden ser más vulnerables a la manipulación o al mal uso de esta tecnología.

    Qué significa para los usuarios

    Para los usuarios cotidianos, las implicaciones son prácticas. La IA ya está influyendo en las solicitudes de empleo, los servicios financieros, la atención médica y la información en línea. Quienes puedan utilizar estas herramientas de manera efectiva podrán obtener ventajas en eficiencia, toma de decisiones y oportunidades.

    Por otro lado, una exposición limitada a la IA podría resultar en oportunidades perdidas o una menor competitividad en un mercado laboral cada vez más condicionado por la automatización y los sistemas basados ​​en datos. Esto crea un escenario donde la tecnología amplifica las diferencias sociales y económicas existentes en lugar de reducirlas.

    ¿Qué sigue?

    El estudio se suma a la creciente preocupación mundial por la desigualdad impulsada por la IA. Informes anteriores han advertido que la IA podría ampliar las brechas no solo entre individuos, sino también entre países, dependiendo del acceso a infraestructura, educación y recursos.

    Los investigadores destacan la necesidad de políticas que mejoren la alfabetización en IA y amplíen el acceso a estas herramientas. Esto incluye iniciativas educativas, una mejor integración del conocimiento sobre IA en los entornos laborales y esfuerzos para que los sistemas de IA sean más transparentes y accesibles.

    A medida que la adopción de la IA continúa acelerándose, abordar este desequilibrio será fundamental. Sin intervención, los beneficios de la IA podrían seguir concentrándose en quienes ya gozan de ventajas, profundizando la brecha en un mundo cada vez más digital.