Blog

  • Siri pronto podría ser compatible con herramientas de IA de terceros en una importante actualización de iOS.

    Siri pronto podría ser compatible con herramientas de IA de terceros en una importante actualización de iOS.

    Según se informa, Apple está preparando uno de los cambios más significativos en Siri en años, con planes para abrir su asistente de voz a servicios de IA de terceros como parte de la próxima actualización de iOS 27. Esta medida marca un giro importante en la estrategia de inteligencia artificial de Apple, transformando a Siri de un asistente cerrado en una plataforma de IA más amplia que puede integrarse con tecnologías de la competencia.

    Un cambio hacia un ecosistema de IA abierto

    Según un informe de Bloomberg elaborado por Gurman , Apple tiene la intención de permitir que Siri redirija las consultas de los usuarios a asistentes de IA externos, más allá de su integración actual con ChatGPT, incluyendo potencialmente servicios como Gemini de Google o Claude de Anthropic.

    Esto permitiría a los usuarios elegir qué sistema de IA gestiona las solicitudes específicas, convirtiendo a Siri en una interfaz central en lugar de un asistente independiente. Se dice que Apple también está desarrollando herramientas que permiten que las aplicaciones de chatbot con IA descargadas de la App Store se integren directamente en Siri y otras partes de su ecosistema "Apple Intelligence".

    Se espera que la actualización se presente junto con iOS 27, que probablemente se mostrará en la Conferencia Mundial de Desarrolladores de Apple (WWDC) a finales de este año.

    ¿Por qué Apple está tomando esta decisión?

    Esta decisión refleja la creciente presión sobre Apple para mantenerse al día con los rápidos avances en inteligencia artificial. Si bien Siri ha sido una parte fundamental del ecosistema de Apple desde 2011, ha tenido dificultades para igualar las capacidades de los asistentes de IA más recientes, impulsados ​​por grandes modelos de lenguaje.

    Al abrir Siri a servicios de IA de terceros, Apple reconoce de hecho que quizás no necesite crear el mejor modelo de IA por sí misma, siempre y cuando controle la interfaz de usuario y la experiencia de la plataforma.

    Este enfoque refleja la estrategia general de Apple con la App Store, donde proporciona el ecosistema y permite que desarrolladores externos ofrezcan funcionalidades. En este caso, Siri podría convertirse en la puerta de entrada a través de la cual los usuarios accedan sin problemas a múltiples herramientas de IA.

    Qué significa para los usuarios

    Para los usuarios de iPhone, este cambio podría ampliar significativamente las capacidades de Siri. En lugar de limitarse a las funciones integradas de Apple o a un único socio de IA, los usuarios podrían acceder a diferentes sistemas de inteligencia artificial según sus necesidades.

    Por ejemplo, un asistente podría encargarse de tareas de redacción creativa, mientras que otro se centraría en la búsqueda o la productividad. Esta flexibilidad podría traducirse en respuestas más precisas, una mejor personalización y una experiencia general más eficaz.

    También simplifica el acceso. En lugar de tener que alternar entre varias aplicaciones, los usuarios podrían usar Siri como una interfaz unificada para interactuar con diversas herramientas de IA.

    Impacto de la industria y panorama competitivo

    La iniciativa de Apple podría transformar la dinámica competitiva del mercado de asistentes de IA. Al abrir su plataforma, la compañía podría fomentar una mayor innovación entre los proveedores de IA, quienes ahora competirán por visibilidad y uso dentro del ecosistema iOS.

    Al mismo tiempo, esta estrategia diferencia a Apple de rivales como Google y Microsoft, que están invirtiendo fuertemente en sus propios modelos de IA. En lugar de competir directamente en el rendimiento de los modelos, Apple parece centrarse en la integración, la privacidad y la experiencia del usuario.

    Esto también podría generar nuevas oportunidades de ingresos, ya que Apple podría obtener una parte de las suscripciones o los servicios ofrecidos a través de aplicaciones de IA integradas.

    ¿Qué sigue?

    Se espera que estos cambios se presenten con iOS 27 , probablemente durante la WWDC, donde también se rumorea que Apple mostrará una renovación más completa de Siri, incluyendo una interfaz más conversacional y una mayor integración con el sistema. Futuras actualizaciones podrían ampliar aún más estas capacidades, permitiendo potencialmente que Siri actúe como un agente de IA completo, capaz de gestionar tareas complejas de varios pasos en diferentes aplicaciones y servicios.

    Sin embargo, mucho dependerá de la ejecución. Apple ha sufrido retrasos y críticas por el despliegue de su IA en los últimos años, y el éxito de esta estrategia dependerá de la fluidez con la que funcionen estas integraciones en la práctica.

    El panorama general

    El plan de Apple para abrir Siri marca un punto de inflexión en la evolución de los asistentes digitales. En lugar de ser herramientas independientes, se están convirtiendo en plataformas que conectan a los usuarios con un ecosistema de IA más amplio.

    Para los usuarios, esto podría significar más opciones, mejor rendimiento y una experiencia diaria más inteligente. Para Apple, representa una apuesta estratégica: que controlar la interfaz puede ser más importante que poseer la inteligencia que la sustenta.

  • ¡Ya está aquí! La NASA revela el calendario completo de transmisiones en vivo de la misión tripulada a la Luna.

    La expectación va en aumento, ya que la NASA está a tan solo unos días de enviar a cuatro astronautas en un viaje alrededor de la luna .

    El miércoles, la agencia espacial compartió su calendario de cobertura para la fase final de preparación y el evento principal, que incluye una sesión de preguntas y respuestas con los astronautas este viernes, el lanzamiento el miércoles 1 de abril y actualizaciones periódicas a medida que la tripulación se dirige a la luna.

    Los estadounidenses Reid Wiseman, Victor Glover y Christina Koch, junto con el canadiense Jeremy Hansen, partirán de la plataforma de lanzamiento a bordo de una nave espacial Orion transportada al espacio por el enorme cohete Space Launch System (SLS) de la NASA.

    Pasarán varios días en órbita terrestre revisando los sistemas de la nave espacial antes de dirigirse a la Luna. No aterrizarán en la superficie lunar, sino que la orbitarán en un viaje que llevará a los humanos más lejos de la Tierra que en cualquier otro momento desde la era Apolo, hace más de cinco décadas.

    A continuación se presenta un resumen de los eventos relacionados con la próxima misión Artemis II. Todos los horarios corresponden a la hora del este (ET):

    Viernes, 27 de marzo

    14:30: La tripulación de Artemis II llegará al Centro Espacial Kennedy para una sesión de preguntas y respuestas con la prensa. El director de la NASA, Jared Isaacman, también estará presente, junto con la presidenta de la CSA (Agencia Espacial Canadiense), Lisa Campbell.

    Domingo, 29 de marzo

    9:30 a. m.: La tripulación de Artemis II dedicará un tiempo a responder preguntas adicionales de los medios de comunicación, pero esta vez de forma virtual, desde su centro de cuarentena.

    14:00: Los responsables de la NASA vinculados a la misión ofrecerán una actualización sobre el estado de los preparativos para el lanzamiento de Artemis II.

    Lunes, 30 de marzo

    17:00: Tras una reunión clave sobre la misión, la NASA ofrecerá una rueda de prensa para informar sobre el estado de los preparativos para el lanzamiento.

    Martes, 31 de marzo

    13:00: La agencia espacial celebrará una rueda de prensa previa al lanzamiento para informar sobre el estado de la cuenta atrás.

    Miércoles, 1 de abril

    7:45 a. m.: Comienza la transmisión en NASA+ de las operaciones de carga de combustible en el cohete SLS. La transmisión en vivo incluirá diferentes perspectivas del cohete y análisis de comentaristas.

    12:50 pm: NASA+ comienza la transmisión oficial en vivo del tan esperado lanzamiento, que está programado para no antes de las 6:24 pm. Después del despegue, la cobertura continuará en YouTube después de que las alas de los paneles solares de Orion se desplieguen en el espacio.

    Aproximadamente dos horas y media después del lanzamiento, y una vez que la etapa superior del cohete SLS haya realizado la maniobra de encendido para enviar a Orion y su tripulación a la órbita terrestre alta, la NASA ofrecerá una conferencia de prensa para informar sobre la misión. La hora de inicio podría variar, dependiendo de la hora exacta del despegue. De hecho, todo el cronograma podría cambiar, según cómo se desarrollen los preparativos finales. La NASA publicará cualquier novedad en su cuenta X.

    Para obtener información sobre el horario de las actualizaciones diarias durante la misión, incluidas las conexiones en directo con la tripulación, consulte el calendario completo de la NASA .

  • Sony no volverá a lanzar la Vita, pero Anbernic sí.

    Sony no volverá a lanzar la Vita, pero Anbernic sí.

    Sony parece haber dejado atrás la PlayStation Vita , pero su influencia claramente no ha desaparecido.

    Anbernic acaba de presentar las nuevas RG Vita y RG Vita Pro, dos consolas portátiles con un diseño inspirado en la PS Vita. Desde su amplia disposición hasta la ubicación de los botones y su estética general, rinden homenaje a la última consola portátil de Sony.

    Pero no se trata de una copia idéntica, sino más bien de una versión moderna de la idea de la Vita.

    Todo lo que necesitas saber sobre las Vitas

    La gama consta de dos variantes: la RG Vita y la RG Vita Pro.

    La PS Vita estándar es una opción más asequible que cuenta con una pantalla IPS de 5,46 pulgadas con resolución 720p, procesador Unisoc T618, 3 GB de RAM y 64 GB de almacenamiento. Por otro lado, la RG Vita Pro ofrece una pantalla IPS ligeramente más grande con resolución 1080p, un procesador Rockchip RK3576 más potente, 4 GB de RAM y la misma compatibilidad con almacenamiento ampliable mediante tarjeta microSD.

    Ambos modelos funcionan con baterías de 5000 mAh que prometen ofrecer varias horas de juego.

    Diseñado con un estilo retro, pero sin quedarse anclado en el pasado.

    La nueva serie RG Vita de Anbernic es un regreso a una gran época de los videojuegos, pero no se trata solo de nostalgia.

    La consola es compatible con Android (y Linux en la versión Pro), lo que le permite ejecutar juegos de Android y emuladores de consolas como PS2 , PSP , GameCube y otras. Por lo tanto, es mucho más versátil que su inspiración original. Anbernic incluso incorpora funciones modernas como Wi-Fi, Bluetooth, salida USB-C e incluso características basadas en IA, como traducción en tiempo real y herramientas de asistencia integradas en el juego.

    Dicho esto, no pretende ser un verdadero sucesor de la PS Vita. Performane está más enfocado a la emulación y a los juegos casuales de Android que a ejecutar títulos AAA modernos.

    Anbernic aún no ha confirmado el precio oficial, pero se espera que los dispositivos se sitúen en la categoría de portátiles de gama baja a media.

  • No se trata solo del tiempo que pasas frente a la pantalla, sino de la frecuencia con la que usas el teléfono, lo cual está dañando tu cerebro.

    No se trata solo del tiempo que pasas frente a la pantalla, sino de la frecuencia con la que usas el teléfono, lo cual está dañando tu cerebro.

    Durante años, el tiempo frente a las pantallas se ha considerado el principal culpable del estrés causado por los teléfonos inteligentes. Pero una nueva investigación sugiere que nos hemos estado preocupando por el indicador equivocado.

    Un estudio de la Universidad de Aalto descubrió que el uso frecuente y fragmentado del teléfono es el principal factor que provoca la sobrecarga de información, y no el tiempo total frente a la pantalla.

    Así que no son las horas lo que más importa, sino la frecuencia con la que te interrumpes.

    ¿Qué problema hay en revisar el teléfono?

    El estudio realizó un seguimiento a casi 300 participantes durante varios meses, combinando datos de uso con informes de estrés mental autodeclarados. Lo que destacó durante este período no fue el uso intensivo, sino que los usuarios que consultaban sus teléfonos constantemente durante breves periodos reportaron mayores niveles de sobrecarga.

    Este tipo de comportamiento, que implica comprobaciones rápidas, cambios de aplicación e interacciones breves, crea un patrón de interrupciones continuas. Por lo tanto, parece ser más agotador mentalmente que las sesiones más largas e ininterrumpidas.

    Por qué esto impacta más que el uso prolongado

    La clave aquí reside en la atención.

    Cada vez que revisas tu teléfono, tu cerebro tiene que cambiar de enfoque, procesar nueva información y retomar lo que estabas haciendo antes. Si haces esto docenas o incluso cientos de veces al día, la carga cognitiva empieza a acumularse.

    El estudio denomina a esto uso fragmentado, lo que sugiere que este patrón es lo que provoca la sensación de agobio.

    Esto cambia nuestra forma de pensar sobre los hábitos de uso del teléfono.

    Cuando se habla de bienestar digital, la respuesta más común es reducir el tiempo frente a la pantalla. Pero esta investigación apunta a un problema completamente distinto. Alguien que pasa horas viendo un solo video terminará sintiéndose menos agobiado que alguien que revisa su teléfono cada pocos minutos.

  • Un avance tecnológico de IA de última generación promete chatbots que puedan interpretar mejor el ambiente.

    Un avance tecnológico de IA de última generación promete chatbots que puedan interpretar mejor el ambiente.

    ¿Alguna vez le has preguntado algo a un chatbot y has sentido que no entendió tu punto de vista? Dices algo con matices, y la IA no capta la sutileza. Ese es precisamente el problema que los investigadores intentan resolver.

    Aunque para muchos usuarios la conexión emocional con la IA puede resultar más profunda que una conversación humana , la mayoría de los sistemas de IA actuales siguen tratando una frase como un bloque único de sentimiento. Si se mezclan elogios y críticas, los matices suelen perderse.

    La investigación , realizada por Zhifeng Yuan y Jin Yuan, presenta un modelo que puede descomponer una oración y comprender cómo te sientes con respecto a cada parte, en lugar de generalizar todo en una sola respuesta.

    Cómo este sistema ayuda a la IA a comprender mejor tu intención.

    Piensa en una frase como: "La comida estaba buenísima, pero el servicio fue pésimo". Un chatbot de IA típico podría tener dificultades porque la frase contiene emociones tanto positivas como negativas.

    El modelo propuesto analiza cada parte de la oración por separado y relaciona cada emoción con el sujeto correspondiente. Para ello, se basa en una "red de atención a palabras clave emocionales".

    En pocas palabras, enseña a la IA a centrarse en palabras que transmiten emociones fuertes, como "genial" o "terrible". Estas palabras guían al sistema para que comprenda qué es lo más importante en la frase.

    El modelo vincula entonces esas señales emocionales con un aspecto específico. Aprende que "excelente" se aplica a la comida, mientras que "terrible" se aplica al servicio. Este proceso, conocido como análisis de sentimiento a nivel de aspecto, hace que las respuestas sean mucho más precisas.

    También utiliza mecanismos de atención para comprender el contexto, por lo que no se basa únicamente en palabras clave. Es capaz de descifrar cómo se conectan las diferentes partes de una oración. Los investigadores afirman que este método ofrece mejores resultados que los modelos existentes en pruebas de referencia estándar.

    Este enfoque puede hacer que los chatbots de IA se sientan más humanos.

    Si se adopta de forma generalizada, esto podría cambiar la manera en que la IA responde en situaciones reales. Los chatbots podrían gestionar comentarios con mayor precisión, en lugar de recurrir a respuestas genéricas. Los sistemas de atención al cliente podrían identificar con exactitud qué salió mal y responder con mayor exactitud.

    Si bien crece la preocupación de que los chatbots de IA imiten demasiado bien los rasgos de la personalidad humana , una cosa está clara: la IA llegó para quedarse, y si va a formar parte de las conversaciones cotidianas, necesita mejorar su capacidad para interpretar el contexto.

  • El primer dron de 360° de DJI ofrece grabación de vídeo en 8K y un alcance de transmisión extraordinariamente largo.

    El primer dron de 360° de DJI ofrece grabación de vídeo en 8K y un alcance de transmisión extraordinariamente largo.

    DJI ha entrado oficialmente en el mercado de los drones de 360° con el lanzamiento del Avata 360. Se trata del primer dron FPV totalmente inmersivo de la compañía y un desafío directo al Antigravity A1 , un rival desarrollado por una marca incubada por Insta360. Parece que la guerra de los drones se ha vuelto aún más interesante.

    ¿Qué hace que merezca la pena echar un vistazo al Avata 360?

    Bastante. El Avata 360 está equipado con el sensor de imagen de 1 pulgada de DJI, capaz de grabar vídeos hasta en 8K a 60 fps , lo que supone una ventaja sobre el Antigravity A1, que alcanza un máximo de 8K a 30 fps. Por si fuera poco, el dron también puede capturar fotografías de 120 MP.

    El último dron de DJI cuenta con dos lentes intercambiables, compatibilidad con vídeo HDR y detección de obstáculos omnidireccional, además de protectores de hélices integrados, lo que lo hace capaz y resistente a los choques, algo bastante tranquilizador, dado el precio que tienen estas características en el mercado actual.

    Sobre el papel, el sistema de transmisión de vídeo O4+ de DJI le otorga al Avata 360 un alcance de hasta 20 kilómetros, lo cual, sinceramente, es más de lo que la mayoría de la gente necesitará o pensará utilizar. Viene con gafas y controladores de movimiento DJI para una experiencia de vuelo totalmente inmersiva (y, por supuesto, con un aspecto genial).

    ¿Cómo se compara con la competencia?

    Entre las funciones adicionales se incluyen ActiveTrack 360, modo foco, seguimiento inteligente, edición con un solo toque y un estabilizador virtual que permite movimientos panorámicos y de inclinación ilimitados para tomas cinematográficas.

    El tiempo de vuelo es de 23 minutos, apenas un minuto menos que los 24 minutos del Antigravity A1, pero el Avata 360 gana decisivamente en almacenamiento, con 42 GB de almacenamiento interno frente a los 20 GB del A1.

    El precio del DJI Avata 360 comienza en 459 € para el paquete que incluye solo el dron, mientras que el paquete Fly More cuesta 939 €. Ya se pueden realizar pedidos anticipados en Europa, y los envíos comenzarán el 26 de abril de 2026. Al igual que los lanzamientos recientes de DJI, el Avata 360 estará disponible a través de distribuidores externos, incluido Amazon .

  • Los requisitos de Forza Horizon 6 para PC son sorprendentemente permisivos para un juego AAA moderno.

    Los requisitos de Forza Horizon 6 para PC son sorprendentemente permisivos para un juego AAA moderno.

    Forza Horizon 6 promete ser un nuevo espectáculo visual, pero sus requisitos para PC cuentan una historia diferente.

    A pesar de sus gráficos de última generación, el juego mantiene unos requisitos relativamente asequibles, sobre todo para los juegos AAA actuales. Esto resulta una grata sorpresa en una época en la que los nuevos títulos suelen requerir una actualización completa del sistema.

    ¿Qué tienen de bueno los requisitos del PC?

    Para ejecutar Forza Horizon 6, los requisitos mínimos para PC incluyen un procesador Intel Core i5-8400 o Ryzen 5 1600, 16 GB de RAM y una tarjeta gráfica GTX 1650, RX 6500 XT o Intel Arc A380. Si bien no se trata de una configuración de gama baja, la mayoría de estas especificaciones son de hace varias generaciones o se consideran de gama de entrada. Dado que estos componentes llevan años en el mercado, muchos sistemas de gama media ya cumplen o superan este nivel de rendimiento.

    Cabe destacar que lo mínimo necesario es lograr una jugabilidad fluida a 60 fps con ajustes gráficos bajos y una resolución de 1080p.

    El estudio incluso ha confirmado la compatibilidad con Steam Deck y ASUS Xbox ROG Ally .

    Algunas sorpresas, y otras cosas son la norma.

    Los 16 GB de RAM de base son una excelente señal, incluso para la lista de especificaciones "recomendadas", que también exige un i5-12400F o un Ryzen 5 5600X con una RTX 3060 Ti, una Radeon 6700 XT o una Arc A580. Si bien técnicamente esto supera con creces los requisitos recomendados de juegos anteriores de Forza, no está fuera de lugar con respecto a las expectativas actuales.

    Forza Horizon 6 también requiere almacenamiento SSD, lo cual se ha convertido prácticamente en un estándar para los juegos modernos. A estas alturas, no se trata tanto de una limitación, sino más bien de un requisito básico para una carga y transmisión fluidas de grandes entornos de mundo abierto.

    Lo que destaca aquí es el equilibrio.

    Forza Horizon 6 busca ofrecer gráficos de alta calidad, pero sin excluir a una gran parte de la base de jugadores. Los gráficos de primer nivel se disfrutan mejor en hardware más potente, pero parece que los desarrolladores han optimizado la experiencia para que se adapte bien a una amplia gama de sistemas. La serie Forza Horizon es una de las franquicias de carreras más populares, por lo que mantener el último título accesible a un público más amplio es una decisión acertada.