Blog

  • La mejor función de inteligencia artificial Gemini de Google podría aparecer pronto en tus aplicaciones cotidianas

    La mejor función de inteligencia artificial Gemini de Google podría aparecer pronto en tus aplicaciones cotidianas

    Google acaba de actualizar Gemini Deep Research, su agente de investigación de IA más avanzado, y esta vez la actualización no se limita a los productos de Google. Google afirma que sus capacidades de IA pronto estarán presentes en las apps que ya usas. Con el lanzamiento de la nueva API de Interacciones, Deep Research ya no es una función exclusiva de Google. Ahora se puede integrar directamente en apps de terceros, lo que abre la puerta a una oleada de herramientas en tu teléfono para obtener, de forma silenciosa, una IA mucho más potente.

    Gemini Deep Research está diseñado para tareas largas y complejas con las que muchos chatbots suelen tener dificultades. En lugar de responder a una sola pregunta, funciona como un investigador real. Planifica la información que necesita, busca en la web, analiza los resultados, identifica lagunas y continúa buscando hasta obtener una respuesta completa y bien fundamentada. Utiliza Gemini 3 Pro como motor de razonamiento, que según Google es su modelo más factual hasta la fecha, entrenado para reducir las alucinaciones durante tareas largas de varios pasos.

    Cómo llega esta actualización a tus aplicaciones

    Con la API de Interacciones, cualquier desarrollador puede integrar este agente de investigación en sus aplicaciones. Deep Research puede leer documentos subidos, combinarlos con datos web públicos y generar informes estructurados con citas. Los desarrolladores también pueden controlar la estructura del resultado final, solicitar tablas o secciones formateadas, o recibir resultados en JSON para su automatización. Estas capacidades hacen que la IA sea ideal para herramientas de análisis automatizado, flujos de trabajo financieros, herramientas de investigación científica o aplicaciones de conocimiento.

    Gracias a que esta función ahora es accesible para desarrolladores, tus aplicaciones favoritas, como las de finanzas, estudio y productividad, podrán empezar a usar Investigación Profunda en segundo plano. Dado que Google también está integrando Investigación Profunda en aplicaciones como Búsqueda y Gemini, pronto podrás obtener respuestas más completas y detalladas sin tener que hacerlo tú mismo. En lugar de consultar manualmente varias fuentes o cambiar de pestaña, tus aplicaciones pronto podrán recopilar información verificada automáticamente.

    Google también se prepara para integrarla directamente en productos como Google Search, NotebookLM , Google Finance y la app Gemini . A medida que esta tecnología se integre discretamente en las apps que ya usas, la idea de investigar pronto podría parecer menos una tarea tediosa y más algo que tu teléfono simplemente gestiona por ti.

    La mejor función de inteligencia artificial Gemini de Google podría aparecer pronto en tus aplicaciones cotidianas apareció primero en Digital Trends .

  • Gemini Nano Banana ahora convierte tu selfie en un avatar de cuerpo completo para probarlo en línea

    Gemini Nano Banana ahora convierte tu selfie en un avatar de cuerpo completo para probarlo en línea

    Google está actualizando su herramienta de prueba visual con IA , y lo mejor es que ya no necesitas una foto de cuerpo entero para usarla. Gracias al modelo Nano Banana de la compañía (parte de la suite Gemini 2.5 Flash Image), la herramienta ahora puede convertir un solo selfie en un avatar digital de cuerpo entero para probarse ropa, y funciona en la Búsqueda de Google y Shopping.

    Solo tienes que subir una selfie y elegir tu talla habitual; Nano Banana generará varios avatares. Usando tu cara, el modelo de IA genera el resto de tu cuerpo manteniendo proporciones consistentes. Elige la que creas que te queda mejor y usa el avatar para probarte camisas, chaquetas, vestidos y más.

    Pruebas de IA más rápidas y personales

    Antes, era necesario subir una foto completa de pies a cabeza, pero la nueva función ahorra tiempo que, de otro modo, se perdería buscando o tomando una foto. El nuevo avatar generado por IA no se basa en un tipo de cuerpo predefinido ni en formas genéricas. En su lugar, crea un avatar digital personalizado para una vista previa más realista del ajuste y el estilo.

    La actualización de Nano Banana debería ofrecer experiencias de compra más completas e inmersivas, donde los compradores tendrán mayor confianza en lo que compran antes de realizar el pago. Si compras ropa en línea, la actualización puede ayudarte a ahorrar tiempo, frustración y la molestia de devolver un producto para obtener una talla más pequeña o más grande.

    Por ahora, la nueva función de Google Shopping se está implementando en Estados Unidos, lo que ofrece a los compradores estadounidenses la oportunidad de probarla antes que nadie en el mundo. Como está integrada en la Búsqueda y Google Shopping, no es necesario descargarla ni registrarse.

    En el futuro, Google podría lanzar mejoras adicionales a su modelo Nano Banana, generando avatares más realistas y pruebas en 3D, además de una mayor integración con aplicaciones como Doppl para ideas de estilo y atuendos . Soy un poco escéptico con la función que calcula la complexión de una persona a partir de su rostro, pero aun así debería ayudar a encontrar un ajuste virtual y agilizar el proceso de compra.

    La publicación Gemini Nano Banana ahora convierte tu selfie en un avatar de cuerpo completo para pruebas en línea apareció primero en Digital Trends .

  • ChatGPT recibe una importante actualización (GPT-5.2) mientras OpenAI lucha contra Google en la carrera armamentista de IA

    ChatGPT recibe una importante actualización (GPT-5.2) mientras OpenAI lucha contra Google en la carrera armamentista de IA

    OpenAI ha lanzado oficialmente GPT-5.2, la última versión de su serie insignia de modelos de IA y su respuesta a Gemini 3 de Google . El nuevo modelo busca ser más rápido, inteligente y útil para consultas complejas del mundo real, con mejoras en el razonamiento y el procesamiento de documentos extensos.

    Se está implementando para los suscriptores de pago de ChatGPT en los niveles Plus, Pro , Team y Enterprise, y para desarrolladores mediante API. OpenAI ofrece GPT-5.2 en tres modelos: GPT-5.2 Instantáneo, GPT-5.2 Pensativo y GPT-5.2 Pro (¿Soy solo yo o el nombre se parece al de los modelos Gemini ?).

    GPT-5.2 es más eficiente en la producción de hojas de cálculo, presentaciones, código y análisis profundo de contenido extenso. OpenAI también afirma mejoras en el manejo de documentos de contexto más extensos, la invocación de herramientas (y la decisión de cuál invocar), las entradas multimodales y la ejecución de tareas de varios pasos.

    GPT-5.2 mejora la confiabilidad de los formatos largos

    La versión pensante del modelo de IA iguala o supera la experiencia humana en el 70 % de las tareas profesionales (según la plataforma de referencia GDPval) y produce resultados con mayor rapidez (a menudo, 11 veces más rápido). Quienes hayan accedido a GPT-5.2 podrán esperar que el modelo de IA gestione documentos más extensos, como artículos de investigación o manuales técnicos, sin perder el hilo ni el contexto. OpenAI también ha implementado medidas de seguridad más robustas contra la alucinación.

    Esto debería beneficiar a quienes utilizan el modelo para procesar documentos legales, académicos o de ventas con gran cantidad de detalles. Además, el modelo debería mejorar la dependencia del código y la depuración. Con estas mejoras, GPT-5.2 se ha convertido en una herramienta de IA más enfocada en el entorno laboral, que puede ayudar a profesionales, empresarios y empresas a procesar datos de back-end y convertirlos en información útil para sus empleados.

    Para los usuarios habituales, el nuevo modelo debería ofrecer una mejor asistencia con tareas complejas, mientras que los desarrolladores ahora cuentan con una IA más potente y capaz para integrar en sus apps. OpenAI también se prepara para añadir un modo para adultos a principios de 2026. Mientras tanto, GPT-5.1 seguirá disponible para los suscriptores durante tres meses (como modelo heredado). Por otra parte, Google también lanzó su agente de Investigación Profunda más avanzado , basado en el modelo Gemini 3 Pro, el mismo día que OpenAI anunció GPT-5.2.

    Parece que hemos entrado en una carrera de IA, en la que ambas compañías intentan superarse mutuamente, no solo con inteligencia y razonamiento puros, sino también con la cantidad de trabajo práctico que sus modelos pueden realizar para los usuarios.

    La publicación ChatGPT recibe una actualización importante (GPT-5.2) mientras OpenAI lucha contra Google en la carrera armamentista de IA apareció primero en Digital Trends .

  • Los juguetes con IA dan miedo, pero esta pequeña caja roja promete una solución

    Los juguetes con IA dan miedo, pero esta pequeña caja roja promete una solución

    Este artículo forma parte de Trending Forward , nuestra serie de videos y podcasts que explora cómo la tecnología disruptiva está cambiando nuestra forma de vida. Esta semana, hablamos con Arun Gupta, fundador y director ejecutivo de Hapiko, sobre…

    Si eres de los que dice que "parece que la IA está en todas partes", te equivocas. Sí, se está infiltrando en el trabajo, la escuela y otros ámbitos, pero se está expandiendo rápidamente hacia muchos otros mundos nuevos.

    Uno de ellos es el pasillo de juguetes, y eso conlleva riesgos aterradores. Como padre, la idea de que su hijo tenga acceso casi sin filtros a lo mejor (y lo peor) de internet parece un completo desacierto, y sin embargo, estamos viendo una proliferación de juguetes que pueden convertir los cuentos para dormir en auténticos cuentos de hadas de los hermanos Grimm.

    Por eso hablamos con Aron Gupta, un emprendedor que fundó con éxito empresas en el sector de la moda y la tecnología wearable. Pero al pasar tiempo con su familia, empezó a reflexionar sobre cómo la tecnología podía no solo entretener a los niños, sino también educarlos y fomentar su creatividad.

    Gupta se reconectó con su socio técnico, Robert Whitney, y comenzaron a trabajar en la creación de Stickerbox , un dispositivo autónomo que usa IA para permitir que los niños describan las imágenes que imaginan (prácticamente cualquier cosa) y las vean en la pantalla monocromática del frente antes de imprimirlas a pedido.

    El diseño recuerda al antiguo Etch a Sketch, y las pegatinas están impresas en una impresora térmica incorporada, lo que significa menos desorden y los niños pueden colorearlas como quieran.

    El concepto es simple, y he descubierto que ya ha dejado de ser un fenómeno común y está ganando popularidad. Hace poco, cuando hablaba de la Stickerbox con una amiga del Reino Unido con niños pequeños, me dijo: "¡Ah, esa pegatina de Etch-a-Sketch AI! ¡Tengo muchísimas ganas de una!".

    Aunque supongo que quiso decir que lo quería para sus hijos, demuestra que la IA es secundaria aquí: la capacidad de crear cosas tangibles con tu voz es algo que enciende el entusiasmo, no que tenga el aprendizaje automático en el núcleo.

    Una nueva generación de juguetes

    Stickerbox parece haber sido diseñado, construido y funciona en claro contraste con otros juguetes de IA del mercado. Los más problemáticos se ofrecen como amigos y confidentes de tu hijo.

    Escuchan constantemente todo lo que se dice en el entorno e incluso pueden manipular a los niños. Se han visto ejemplos de juguetes con inteligencia artificial que les indican a los niños cómo encontrar armas y cerillas.

    Y ahí está el conflicto: las herramientas de IA pueden fomentar la capacidad de asombro y la creatividad en los niños, permitiéndoles hacer cosas que antes eran imposibles. Pero esa oportunidad también conlleva un riesgo increíble, y la razón por la que hablamos con Gupta es simple: ¿cómo se puede crear un juguete que ofrezca los beneficios de la IA sin los peligros que conlleva el acceso?

    Un estudio publicado recientemente por PIRG destacó enormes preocupaciones sobre los juguetes basados ​​en el acceso a LLM como ChatGPT de OpenAI, y la forma en que, incluso si hay barreras de protección, se pueden eludir.

    Entonces, ¿en qué se diferencia Stickerbox?

    “Comenzamos con una pregunta muy simple: ¿qué pasaría si la IA estuviera diseñada para niños?”, dice Gupta.

    Creo que Bob y yo, cuando fundamos esta empresa, nos inspiramos mucho en las redes sociales y su impacto en las generaciones más jóvenes. Las redes sociales, como todos sabemos, se crearon con la mecánica de un casino, diseñadas para darte esa dosis de dopamina, diseñadas para maximizar la interacción y brindarte el máximo servicio.

    Pero luego tomas eso y piensas en ese modelo para niños y… esto no encaja del todo bien. No hay redes sociales realmente diseñadas para niños. Y creo que ocurre lo mismo con la IA.

    Por lo tanto, Stickerbox se diseñó para aprovechar el poder creativo de la IA y, al mismo tiempo, ser seguro para los niños. Cuenta con tres factores de seguridad específicos: el dispositivo solo escucha cuando se pulsa el botón del micrófono; existen estrictas normas de seguridad para el contenido de salida; y los padres pueden supervisar completamente las creaciones de sus hijos en la aplicación que lo acompaña.

    La caja no permitirá que los niños visualicen desnudez, sangre, violencia o sangre, ya que Gupta dijo que la compañía quería "equivocarse en lo seguro en lugar de lo menos seguro, ya que estamos empezando".

    Stickerbox se conecta a internet para acceder a la IA, pero es un sistema propietario, en lugar de aprovecharse de OpenAI, como hacen muchas otras empresas. Desarrollar su propio LLM permitió a Hapiko integrar lo que Gupta llama «cuellos de botella»:

    “Tenemos muchas barandillas integradas en la caja en este momento y es mucho software propietario, pero básicamente puedes pensarlo de esta manera simple: hay un sistema donde el niño dice una instrucción, la instrucción se traduce en texto, el texto se traduce en una imagen y la imagen regresa.

    En ese proceso, hay múltiples puntos críticos. Está el punto crítico donde se crea el texto, y se puede escanear su contenido. Luego, se puede aplicar un filtro de seguridad. Luego, está la indicación que va del texto a la imagen, y se puede escanear para ver qué se está reproduciendo en la imagen.

    Stickerbox enseña a los niños una lección importante sobre cómo construir sus instrucciones para el motor de inteligencia artificial. Cuando la pegatina no es exactamente lo que imaginaban, deben pensar en cómo editar su mensaje para obtener el resultado deseado.

    Si bien puedes hacer lo mismo con cualquier chatbot, el elemento de impresión requiere que conectes hardware y necesita la guía de un padre para supervisar el proceso y, potencialmente, que explique algunos temas delicados.

    Profundizamos en el futuro de esta caja: cómo la recibieron tanto los padres como los maestros, cómo superaron algunos desafíos y preguntas iniciales, y qué podría deparar el futuro en este espacio de juguetes de inteligencia artificial en rápido crecimiento… y cómo Hapiko tuvo que dejar de lado algunas características para llevar este producto al mercado de manera segura.

    Los juguetes con inteligencia artificial dan miedo, pero esta pequeña caja roja promete una solución apareció primero en Digital Trends .

  • OnePlus 15R confirmado para una importante actualización de cámara respecto a su predecesor

    El OnePlus 15R llegará con la "mejor cámara para selfies de la historia" de la empresa, ya que se confirmó oficialmente una cámara frontal de 32 MP solo unos días antes del lanzamiento global del teléfono.

    Reemplaza al OnePlus 13R , que nos impresionó mucho a principios de este año y cuenta con una cámara para selfies de 16 MP.

    Además de ser el primer teléfono OnePlus con una cámara frontal de 32 MP, el 15R también cuenta con un par de novedades más, como el enfoque automático en la cámara para selfies por primera vez en un teléfono de la Serie R.

    Además, la grabación de video 4K a hasta 30 cuadros por segundo en la cámara frontal también debutará en el 15. El 13R solo ofrecía grabación 1080p (Full HD) en su cámara frontal.

    ¿Qué queda por revelar?

    Esta no es la primera vez que OnePlus confirma detalles del 15R antes de su lanzamiento. Anteriormente supimos que el teléfono vendrá con una enorme batería de 7400 mAh , incluso más grande que la considerable batería de 7300 mAh de su hermano insignia, el OnePlus 15 .

    También debería haber una cantidad decente de energía disponible, ya que el OnePlus 15R vendrá con el chipset Snapdragon 8 Gen 5 de Qualcomm , que ofrece mejoras saludables en el rendimiento de la CPU, la GPU y la NPU con respecto a su predecesor, al mismo tiempo que consume menos energía gracias a su diseño de 3 nm.

    También sabemos que la pantalla ofrecerá juegos de 120 fps y una frecuencia de actualización de 165 Hz, además de resistencia al polvo y al agua IP66/68/69/69K, lo que lo convierte en el teléfono con las clasificaciones IP más completas de la industria.

    Aún estamos esperando saber cuánto costará el OnePlus 15R, pero esperamos que mantenga los $599 del 13R, un teléfono que, según dijimos, fue el mejor uso de $600 este año. Bueno, el 15R podría tener la oportunidad de arrebatarle ese título a su predecesor.

    El evento de lanzamiento del OnePlus 15R tendrá lugar el 17 de diciembre, junto con la tableta OnePlus Pad Go 2 y el Watch Lite . Podrás ver el evento en directo, ya que se retransmitirá en directo en el sitio web de OnePlus .

    Se confirma que el OnePlus 15R tendrá una importante actualización de cámara respecto a su predecesor apareció primero en Digital Trends .

  • Google Play Books pronto te permitirá hacerle preguntas a Gemini mientras lees

    Google Play Books pronto te permitirá hacerle preguntas a Gemini mientras lees

    Desde ayudarte a escribir correos electrónicos hasta administrar dispositivos inteligentes del hogar , Gemini de Google se integra cada vez más en tu vida. Pronto, podría cambiar tu forma de leer libros en tu teléfono.

    Android Authority ha descubierto una próxima integración de Gemini mientras revisaba la última versión beta de la app Google Play Libros y Audiolibros (versión 2025.11.29.2). Aunque la integración aún no está disponible, la publicación ha logrado habilitarla manualmente, lo que nos da un adelanto de su posible funcionamiento tras su lanzamiento.

    Como se muestra en las capturas de pantalla adjuntas, la aplicación podría incorporar un nuevo botón "Pregunta a Gemini" en el menú, que aparece al seleccionar texto. Aunque aún no está operativo, este botón probablemente permitirá a los usuarios hacer preguntas a Gemini sobre el texto seleccionado, generar resúmenes o explicar temas complejos.

    Gemini en Google Play Books podría ser un punto de inflexión

    Esta función podría ser increíblemente beneficiosa para los lectores, ya que les permite obtener información contextual, explicaciones de pasajes complejos, resúmenes de secciones largas o incluso definiciones de términos desconocidos. Al añadir un botón de Gemini directamente a la aplicación, Google también eliminará la necesidad de que los usuarios copien y peguen texto en la aplicación de Gemini o en una ventana del navegador, simplificando enormemente el proceso.

    Sin embargo, no está claro de inmediato si este botón redirigirá a los usuarios a la app de Gemini o abrirá el asistente en una superposición, lo que permitirá obtener respuestas sin salir de la app. Tampoco hay información sobre si habrá una integración similar disponible para audiolibros.

    Google aún no ha compartido información oficial sobre esta integración de Gemini. Dado que se descubrió en un análisis de APK , es probable que no esté disponible para los usuarios a corto plazo, o incluso nunca. Google podría realizar cambios adicionales para cuando la integración esté disponible, por lo que podría no parecerse a lo que se muestra en las capturas de pantalla anteriores.

    La publicación Google Play Books pronto te permitirá hacerle preguntas a Gemini mientras lees apareció primero en Digital Trends .

  • AMD irá a lo seguro en el CES 2026, pero aún así podría merecer su atención

    AMD irá a lo seguro en el CES 2026, pero aún así podría merecer su atención

    Durante años, el Consumer Electronics Show (CES) ha evolucionado de ser una vitrina de electrónica de consumo a una plataforma de lanzamiento de primer nivel mundial para los fabricantes de chips, convirtiéndolo en un campo de batalla clave por el liderazgo en informática y hardware de IA. Se espera que la próxima edición de 2026 no sea menos.

    AMD ha confirmado que la presidenta y directora ejecutiva, la Dra. Lisa Su, ofrecerá la conferencia inaugural el 5 de enero, donde describirá la visión de la compañía sobre IA en la nube, la empresa, el edge y los dispositivos de consumo. Si bien no esperamos grandes anuncios como una nueva generación de GPU ni un adelanto sorpresa de Zen 6 (aunque aún podemos soñar), sí esperamos algunos lanzamientos importantes.

    Analicemos lo que es probable, lo que se rumorea y lo que son meras ilusiones.

    Nuevos chips V-cache 3D

    AMD ha logrado hacerse con una parte considerable del mercado de CPUs de consumo con sus CPUs 3D V-Cache, y parece que la compañía planea añadir más a su catálogo. El Ryzen 7 9850X3D es un chip que probablemente se presentará oficialmente en el CES 2026. El chip fue revelado accidentalmente por la propia AMD a través de sus propias páginas de controladores, lo que sugiere que la CPU está lista para su lanzamiento.

    En una filtración separada , se afirma que el 9850X3D contará con 8 núcleos, 16 subprocesos, con velocidades de reloj base de 4,7 GHz y velocidades de reloj de impulso de 5,6 GHz. Contará con un TDP similar de 120 W con 96 MB de caché L3 como el 9800X3D, lo que potencialmente lo convierte en una de las mejores CPU para juegos .

    Además, se menciona una CPU Ryzen 9 9950X3D2 más potente, con dos pilas de caché virtual 3D para un total de 192 MB de caché L3 y un TDP de 200 W. Esto podría convertirla en la CPU para juegos más potente de AMD hasta la fecha, aunque estos son solo rumores. Dicho esto, esta referencia filtrada no ha aparecido en ningún sitio fiable, y AMD tradicionalmente lanza su chip para juegos X3D principal antes que cualquier variante de alto número de núcleos.

    APU de escritorio Ryzen 9000G

    Si bien la gama de CPU X3D está dirigida a gamers, las APU Ryzen 9000G podrían ser el lanzamiento más significativo de AMD en el CES para el mercado general de computadoras de escritorio. Actualizaciones recientes de AGESA descubiertas por mineros de datos sugieren que AMD podría estar preparando nuevas APU de escritorio basadas en el mismo silicio Krackan y Strix Point empleado en sus últimos chips móviles.

    Si esa información es cierta, la línea 9000G reuniría núcleos de CPU Zen 5, gráficos RDNA 3.5, capacidades AI/NPU mejoradas y soporte nativo para socket AM5, todo en un solo paquete.

    Esta combinación haría que la serie 9000G fuera especialmente atractiva para PC domésticos, HTPC, equipos gaming económicos y configuraciones compactas de formato pequeño. AMD ha mantenido un sólido liderazgo en el sector de las GPU integradas, y una APU Zen 5 + RDNA 3.5 en un ordenador de escritorio podría recrear fácilmente la emoción del Ryzen 7 5800G, ofreciendo un rendimiento gaming realmente potente sin una GPU discreta.

    Sin embargo, conviene moderar las expectativas. Una fuente fiable indicó a principios de este año que la serie Ryzen 9000G podría ser simplemente una actualización de la línea actual Ryzen 8000G , lo que significa que seguiría basándose en la antigua arquitectura Zen 4 en lugar de Zen 5. De ser así, la gama 9000G sería mucho menos atractiva de lo que sugerían las primeras filtraciones, y se trataría más de una actualización gradual que de un auténtico salto a la nueva generación.

    Ryzen AI 400 “Punto Gorgona”

    Si hay algo que AMD impulsará con fuerza en el CES del próximo año son las PC con IA, en gran parte porque toda la industria avanza en esa dirección, lo pida o no. Esto nos lleva al Ryzen AI 400, cuyo nombre en código es Gorgon Point, el siguiente paso en la hoja de ruta móvil de AMD. Hasta hace poco, se asumía que sería una simple actualización de Strix Point .

    Según diapositivas filtradas de la compañía, se espera que Gorgon Point presente hasta 12 núcleos de CPU Zen 5 con una NPU ligeramente mejorada y gráficos RDNA 3.5 en lugar de pasar a RDNA 4. Esto alinea a Gorgon Point mucho más cerca de Strix Point de lo que esperaban los entusiastas.

    RDNA 3.5 es una arquitectura refinada y eficiente, pero para PC portátiles para juegos, lo que probablemente solo signifique mejoras graduales en lugar de un salto generacional. Dado lo competitivo que se ha vuelto el mercado de las portátiles, mantener RDNA 3.5 podría parecer una oportunidad perdida.

    Donde AMD se centrará con fuerza es en la IA. Con Microsoft impulsando la marca Copilot+ , Intel apuntando a más de 50 NPU TOPS con Panther Lake, y los chips Snapdragon X de Qualcomm ya marcando la pauta para la IA en dispositivos, AMD necesita mantener el ritmo.

    Espere una avalancha de diseños que incluyen ultrabooks, computadoras delgadas y livianas, y computadoras portátiles premium para creadores, con silicio Ryzen AI 400 en los pisos de exhibición del CES.

    La estrategia de IA

    Dado que la conferencia magistral de la Dra. Lisa Su no se centra únicamente en las CPU de consumo, AMD también abordará diversos temas relacionados con la IA, como la aceleración de la IA en centros de datos, las soluciones de IA en el edge, los flujos de trabajo de IA empresarial, el hardware para juegos optimizado para IA y las actualizaciones del ecosistema de software de IA. Este enfoque integral ocupará una parte significativa de la conferencia, lo cual es lógico, ya que AMD busca ampliar su alcance frente al dominio de la IA de Nvidia, especialmente en inferencia e implementaciones optimizadas en costes.

    En cuanto a lo que los entusiastas desean ver en el CES, la lista de deseos es larga. Un avance de Zen 6 generaría un entusiasmo evidente, pero es casi seguro que es demasiado pronto para que AMD hable de una arquitectura para 2027. Lo mismo ocurre con RDNA 5, ya que el panorama de las GPU está inusualmente tranquilo en estos momentos, y AMD parece mucho más centrado en las APU y la IA que en incursionar en el territorio de las Radeon de nueva generación.

    Incluso el rumoreado Ryzen 9 9950X3D2 de doble caché parece improbable para el CES, a pesar de los rumores. A menos que AMD tenga algo inusualmente grande escondido, lo más seguro es que solo veremos el chip para juegos X3D, más común por ahora.

    La publicación AMD jugará a lo seguro en el CES 2026, pero aún así puede merecer su atención apareció primero en Digital Trends .