Los planes de Apple para mejorar significativamente la cámara del iPhone se han complicado. Recientemente informamos que Apple estaba explorando formas de incorporar funciones profesionales inspiradas en Halide al iPhone 18 Pro , llegando incluso a considerar la adquisición del desarrollador de la aplicación, Lux Optics. Pero, al parecer, esta historia ha dado un giro legal, con una demanda como eje central del asunto.
Unsplash
Según The Information , Ben Sandofsky, cofundador de Lux Optics, ha presentado una demanda contra su compañero cofundador, Sebastiaan de With, quien recientemente se unió al equipo de diseño de Apple.
¿De qué trata exactamente la demanda?
En primer lugar, cabe aclarar que la disputa no es directamente contra Apple, pero está estrechamente vinculada a la empresa. La demanda alega que de With fue despedido en diciembre de 2025 por mala conducta financiera, incluyendo acusaciones de haber utilizado más de 150 000 dólares de fondos de la empresa para gastos personales. También lo acusa de haber sustraído material confidencial y código fuente de Lux Optics cuando se unió a Apple a principios de 2026.
El equipo legal de De With ha negado estas acusaciones, calificando la demanda de represalia e insistiendo en que no se transfirió ninguna propiedad intelectual a Apple. Es importante destacar que Apple no figura como demandada ni se le acusa de irregularidades, aunque su participación en la contratación de De With la ha puesto en el punto de mira.
¿Cómo afecta esto a los planes de Apple en materia de cámaras?
Apple claramente quería aprovechar el talento de Halide; incluso exploró la posibilidad de comprar Lux Optics en 2025 para incorporar controles profesionales a la cámara del iPhone. Ese acuerdo no se concretó, pero Apple contrató a uno de los principales responsables de Halide, lo que inicialmente parecía una buena jugada para captar talento… hasta que surgió la demanda y complicó mucho las cosas.
Unsplash
Por ahora, nada cambia para los usuarios, pero la situación se ha complicado tras bambalinas. Apple sigue queriendo llevar la cámara del iPhone al ámbito profesional, pero este drama legal podría retrasar el proceso o dificultar la implementación de esas ideas en productos reales. Lo que se suponía que sería una actualización sin complicaciones ahora viene acompañada de tensión legal.
DLSS 5 desactivado (izquierda) vs DLSS 5 activado (derecha)NVIDIA
Han sido unas semanas agitadas en el mundo de la tecnología, y si has estado siguiendo la saga de DLSS 5 ( Deep Learning Super Sampling ), sabrás que ha sido una montaña rusa de asombro, sorpresa y desconcierto. Aquí tienes un resumen del drama de DLSS 5, desde la euforia inicial hasta la realidad actual del "filtro 2D".
La historia hasta ahora: El “momento GPT” que no fue
Todo comenzó cuando Jensen Huang subió al escenario de la GTC 2026 de NVIDIA y lanzó la bomba: DLSS 5. NVIDIA ya no se limitaba a escalar píxeles; los estaba reinventando generativamente. Jensen lo llamó el "momento GPT para los gráficos", prometiendo que la IA se encargaría ahora del trabajo pesado del realismo visual: aspectos como la textura de la piel, el brillo de las telas y la iluminación compleja. Desafortunadamente, la euforia duró menos de 24 horas.
Horrible, la verdad Cuanto más lo miras, peor se pone.
Básicamente, se trata de Nvidia DLSS 5 aplicando su fotorrealismo mediante IA a juegos ya existentes.
En cuestión de horas, internet se inundó de comparaciones directas entre Resident Evil Requiem y Starfield. ¿La respuesta de la comunidad? "Una chapuza de IA". En lugar de mejorar el aspecto de los juegos, DLSS 5 estaba " yassificando " a los personajes al suavizar las texturas de la piel, añadir maquillaje no deseado y hacer que todos parecieran influencers de Instagram de 2022.
Así que… resulta que esos estudios que "crearon" esos clips de DLSS 5 tampoco sabían nada al respecto.
Luego llegó la "Traición". Como informó Insider Gaming , los principales desarrolladores de videojuegos fueron tomados por sorpresa. Según se informa, los artistas de Ubisoft y Capcom se enteraron de las demos de DLSS 5 al mismo tiempo que nosotros. NVIDIA se apresuró a controlar los daños, prometiendo un SDK de "Control Creativo Total" con controles deslizantes de intensidad. Pero el golpe final llegó hace solo unos días: una entrevista por correo electrónico entre el YouTuber Daniel Owen y Jacob Freeman de NVIDIA reveló que DLSS 5 en realidad no aprovecha la geometría 3D profunda del juego. Es esencialmente un filtro de posprocesamiento 2D de alta gama superpuesto a la pantalla. La "Revolución Neuronal" resultó ser una capa de pintura muy cara.
Por qué “mejor” no siempre es mejor.
Sobre el papel, DLSS 5 suena a magia. Y en cierto modo, lo es. Si observas un paisaje o un entorno estático, las sombras y las luces generadas por IA se ven objetivamente más nítidas. Pero aquí está el problema: la sensación de nítida no siempre es la misma.
Los videojuegos son arte, y el arte se basa en la intención.
Si un desarrollador dedica tres años a perfeccionar un pasillo tenebroso, lúgubre y claustrofóbico en un juego de terror, no querrá que una IA venga y lo "arregle".
NVIDIA
DLSS 5 tiende a iluminar rincones oscuros y eliminar la niebla atmosférica porque los interpreta como "errores" que deben corregirse. El hecho de que los desarrolladores se sorprendieran con la demo es la mayor señal de alarma. Es la clásica jerarquía corporativa: los altos cargos dan el visto bueno a NVIDIA para generar expectación, mientras que los equipos creativos se quedan al margen. En cambio, si NVIDIA hubiera colaborado con los artistas, podría haber alimentado la IA con modelos de datos 3D y planos.
NVIDIA
Imagina que la IA supiera exactamente dónde debería estar la cicatriz de un personaje o cómo reflejar la luz una tela específica. De hecho, como Veedrac demostró recientemente en Reddit , los juegos con DLSS 5 y mapeo de tonos lucen realmente espectaculares. Esto demostró que la tecnología funciona, pero solo cuando un humano está al mando. Al lanzarla como un filtro de "caja negra", NVIDIA básicamente ignoró a quienes hacen que los juegos valgan la pena.
Original vs DLLS 5 con Tonemap modificado vs DLLS 5
Por otro lado, está el tema obvio: la soberanía de los datos. Como diseñador creativo, ¿por qué estaría de acuerdo con entregar mis diseños de personajes y mapas de iluminación a un modelo de IA? Ya hemos visto cómo funciona. La IA usa esos datos para "aprender" y, al final, crea contenido basándose en tu arduo trabajo sin tu intervención. Es un temor válido que NVIDIA esté creando un motor maestro que algún día podría hacer que la parte de "artista" de "artista de videojuegos" sea opcional.
El futuro nos espera
¿DLSS 5 está condenado al fracaso desde su lanzamiento? Probablemente no. Si la historia nos enseña algo, este es simplemente el procedimiento habitual de NVIDIA: primero estropear las cosas, luego arreglarlas. Recordemos 2018: se lanzó Ray Tracing , hundió la tasa de fotogramas y, en el mejor de los casos, se veía "bien" . ¿Y hoy? Es el estándar de oro. En 2022, nos dieron la Generación de Fotogramas y todos nos reímos de los "fotogramas falsos". ¿Y ahora? Es prácticamente la única forma de lograr una resolución 4K jugable.
No me malinterpreten, prefiero mil veces la rasterización nativa a este desastre de IA. Quiero que mis juegos se rendericen de verdad, sin atajos digitales. Pero ese no es el mundo en el que vivimos. NVIDIA controla el 95% del mercado, según informa Jon Peddie Research , lo que significa que cualquier cosa que introduzcan, sea buena, mala o fea, acaba convirtiéndose en el modelo a seguir de la industria.
Nvidia
Actualmente, DLSS 5 se encuentra estancado en su fase de "Valle Inquietante". Resulta incómodo, demasiado agresivo y está siendo criticado por ser simplemente un filtro 2D glorificado. Pero tarde o temprano, NVIDIA tendrá que darse cuenta de que no puede tratar un juego como un archivo de vídeo plano. El SDK prometido debe ser más que un simple control deslizante; debe ser un puente que permita a los desarrolladores plasmar su esencia artística. Cuando DLSS 5 aprenda a respetar tanto la "atmósfera" como los "píxeles", revolucionará los videojuegos para siempre.
Y ya sabemos cómo termina esto: la industria sigue a NVIDIA como un reloj. Podemos quejarnos todo lo que queramos hoy, pero dentro de dos años probablemente estaremos debatiendo si el FSR 5 de AMD es tan bueno como el Team Green para "repintar" personajes. La tecnología es inevitable. Solo tenemos que asegurarnos de que el arte no se pierda en la mejora gráfica.
Google ha apostado fuertemente por la IA, impulsando la integración de Gemini en muchos de sus servicios . Chrome no es una excepción, y la última versión para iPhone deja aún más clara esta prioridad que da la IA.
Se está probando un nuevo acceso directo llamado " Pregúntale a Géminis " en Chrome para iOS , que permite acceder instantáneamente a un asistente de IA directamente desde la interfaz del navegador. Esta función no está oculta en los menús, sino que ahora es una barra inferior permanente que aparece junto a otras opciones como "Nueva pestaña" y "Cambiar de pestañas".
Si pulsas el botón Gemini, Chrome abre un panel de IA que se superpone directamente a la página web que estás viendo. De esta forma, se integra perfectamente en el navegador en lugar de abrir una nueva aplicación o pestaña. La página permanece visible en segundo plano, lo que te permite leer un artículo, hacer preguntas sobre él y obtener resúmenes o explicaciones sin interrumpir tu navegación.
¿Por qué Google está impulsando una mayor integración de Gemini?
La nueva función del navegador Chrome en iOS no es un experimento aislado. Google ha estado integrando Gemini progresivamente en Chrome, posicionándolo como un asistente integrado que reconoce el contexto de lo que el usuario está viendo. Esto permite un acceso rápido a útiles herramientas con inteligencia artificial. En la versión de escritorio, Gemini ya puede resumir páginas, responder preguntas según las pestañas abiertas y ayudar a completar tareas.
Así pues, la actualización ofrece la misma experiencia a los iPhones. El hecho de que sea tan accesible también sugiere que Google quiere que la IA sea la forma predeterminada de interactuar con la web. Por el momento, la función está oculta tras indicadores experimentales y versiones de TestFlight, lo que significa que aún no está ampliamente disponible. Pero la intención de la compañía es clara: Gemini no es solo un complemento, ahora es fundamental.
Google Translate siempre ha sido excelente para explicar el significado de las palabras. Sin embargo, pronunciarlas en voz alta siempre ha dependido del usuario. Ahora, Google está trabajando en una nueva función que podría solucionar este problema. Se está desarrollando un nuevo modo de práctica con inteligencia artificial para ayudar a los usuarios a mejorar su pronunciación en lugar de solo escuchar las traducciones.
Y sí, puede hacerte notar por destrozar esa frase en español.
¿Y cómo funciona?
Google
Si bien Google Translate ofrecía el típico icono de altavoz para escuchar con un toque, la nueva función va más allá y permite escuchar ejemplos de pronunciación de hablantes nativos, grabar tu propia pronunciación y obtener comentarios sobre la precisión de tu voz. Luego analiza tu habla y califica tu pronunciación, ofreciendo también sugerencias para mejorarla.
Incluso se ofrece a los usuarios un desglose fonético de las palabras que facilita la comprensión de cómo deberían sonar. Esto es más sencillo que depender de notaciones lingüísticas complejas.
En desarrollo, pero promete.
Google
No se trata de un evento puntual. Es un sistema completo que fomenta la práctica mediante la repetición, permitiendo a los usuarios repasar frases para perfeccionar su pronunciación. Así, pueden practicar hasta alcanzar un nivel de pronunciación cercano al de un hablante nativo. Además, hay indicios de que esta función podría formar parte de una herramienta de aprendizaje de idiomas más amplia, que podría incluir niveles de dificultad y modos de práctica conversacional.
Esta función se descubrió en una versión reciente de la aplicación, y un análisis del archivo APK muestra que aún está en desarrollo. Además, se espera que se implemente gradualmente, comenzando con algunos idiomas como inglés y español antes de incluir más opciones. Por lo tanto, es posible que tengas que esperar un poco antes de que empiece a detectar tu acento.
Microsoft podría estar abordando finalmente uno de los aspectos más frustrantes de Windows 11: la constante publicidad y las ventas adicionales. Según Scott Hanselman, uno de los ingenieros que lideran el desarrollo de las nuevas correcciones para Windows , la compañía está trabajando para convertir Windows 11 en un sistema operativo más "tranquilo y relajado, con menos ventas adicionales", especialmente en áreas como el menú Inicio y las indicaciones del sistema.
Sí, un sistema operativo más tranquilo y relajado con menos ventas adicionales es un objetivo.
Esto se produce tras años de críticas, en los que los usuarios se han quejado de que se les incita a utilizar servicios como Edge, OneDrive, Microsoft 365 e incluso Copilot, a menudo en lugares donde no lo esperaban.
¿Por qué Microsoft está reduciendo la publicidad?
Windows 11 se ha convertido gradualmente en una plataforma que no solo ejecuta aplicaciones, sino que también las promociona. Desde recomendaciones en el menú Inicio hasta avisos durante la configuración y notificaciones en pantalla completa, Microsoft ha impulsado su propio ecosistema de forma bastante agresiva. Incluso empleados de Microsoft han reconocido el problema. El impulso por una experiencia más "tranquila" es, en esencia, una admisión por parte de la compañía de que Windows se ha vuelto demasiado intrusivo y que necesita corregirse.
Microsoft
Dicho esto, no esperes que los anuncios desaparezcan por completo. El objetivo parece ser reducir la saturación publicitaria, no eliminarla.
¿Qué es exactamente lo que podría cambiar?
El cambio más importante es sencillo: Windows intentará venderte menos cosas. Microsoft busca reducir las promociones en el menú Inicio y en el sistema operativo, a la vez que mejora el rendimiento, simplifica la interfaz de usuario y elimina las notificaciones innecesarias para que la experiencia general sea más fluida y menos intrusiva.
La IA, en cualquier noticia, suele asociarse con deepfakes , desinformación y frustración general. Pero en medio de todo ese revuelo, hay un caso de uso que resulta sorprendentemente humano.
Está ayudando a la gente a encontrar a sus mascotas perdidas.
La tecnología que utiliza herramientas basadas en el reconocimiento de imágenes se está convirtiendo discretamente en una de las formas más efectivas de reunir a las mascotas perdidas con sus dueños, y es sorprendentemente rápida y eficiente.
Cómo la IA está encontrando a las mascotas perdidas
Ziggy era un perro perdido encontrado gracias a la IAde Petco Love.
No se trata de una de esas tecnologías de hackers de Hollywood donde la IA rastrea todas las cámaras públicas y usa software de reconocimiento para encontrar a tu mascota. El proceso es bastante sencillo. Los dueños de mascotas suben fotos de sus animales perdidos a plataformas como Petco Love Lost, que luego usa IA para escanear miles de imágenes de organizaciones de rescate, publicaciones en redes sociales y refugios de animales.
La IA analiza diversos detalles como la estructura facial, el patrón de las patas y la forma de las orejas para encontrar posibles coincidencias. Esto permite encontrar mascotas, incluso si su aspecto ha cambiado tras haberse perdido. Este último punto es clave, ya que muchas mascotas que desaparecen durante días o semanas pueden verse más descuidadas y sucias, llegando a ser irreconocibles incluso para sus dueños. Sin embargo, la IA no presenta este problema.
No es perfecto, pero es realmente útil.
Disney
Ya se han reportado numerosos casos de personas que se han reencontrado con sus mascotas. Algunas fueron encontradas en menos de 24 horas, mientras que otras se reencontraron después de que su mascota estuviera perdida durante más de dos meses. Lo que hace que esta herramienta sea tan eficaz es su alcance, ya que plataformas como Petco Love Lost recopilan datos de miles de refugios y organizaciones de rescate para crear un sistema centralizado que antes no existía.
Si bien esto no reemplaza elementos básicos como las etiquetas de identificación o los microchips, actúa como una poderosa capa adicional que aumenta las probabilidades de un reencuentro. A pesar de las preocupaciones que rodean a la IA, este es uno de esos casos excepcionales en los que la tecnología resulta útil, de forma similar a como Google utiliza la IA para reducir el impacto de los vuelos .
Puede que Apple tenga nuevos productos listos, pero aún no los ha lanzado. Según un informe reciente de Bloomberg , el inventario de dispositivos como el HomePod, el HomePod mini y el Apple TV se está agotando en las tiendas Apple de todo el mundo.
Normalmente, eso es una clara señal de que pronto habrá nuevos modelos. Pero esta vez hay una sorpresa. Según se informa, Apple está retrasando los lanzamientos porque sus funciones de IA y Siri de próxima generación aún no están listas.
¿Por qué se están retrasando estos productos?
La razón principal es que Siri aún está rezagada. El informe sugiere que Apple tenía listas versiones actualizadas del HomePod mini y el Apple TV desde el año pasado, pero optó por no lanzarlas mientras esperaba la nueva experiencia de Siri con inteligencia artificial. Probablemente, la idea era presentar hardware mejorado junto con un software más inteligente. Desafortunadamente, esas mejoras de IA aún no están listas.
Curiosamente, si bien se espera que estas funciones de IA sean fundamentales para un futuro centro de control doméstico inteligente de Apple , en dispositivos como el HomePod y el Apple TV son más bien un complemento. Esto plantea la posibilidad de que Apple acabe lanzando el hardware en lugar de seguir esperando indefinidamente.
¿Qué implica esto para los planes de Apple?
La situación actual del suministro es… un tanto caótica. El HomePod mini está prácticamente desaparecido, con disponibilidad limitada en tiendas y retrasos en los envíos que se extenderán hasta el próximo mes. El HomePod estándar se mantiene algo mejor, mientras que el Apple TV sigue estando ampliamente disponible como si nada hubiera pasado.
Todo esto indica que Apple se encuentra en una especie de juego de espera. El hardware parece listo, pero la mejora de la IA de Siri aún no lo está, y Apple no quiere lanzar uno sin el otro. Sin embargo, en algún momento tendrá que elegir: seguir esperando a que Siri se ponga al día o lanzar los productos de todos modos. En cualquier caso, los retrasos están empezando a afectar no solo al software, sino también a los lanzamientos de productos.
Utilizamos cookies para asegurarnos de brindarle la mejor experiencia en nuestro sitio web. Si continúa utilizando este sitio, asumiremos que está satisfecho con él.