El uso de redes sociales por parte de los niños ya es de por sí complicado. Hay demasiadas cosas que pueden salir mal, y ningún padre quiere lidiar con las consecuencias. Lo que lo complica aún más es la creciente tendencia de padres que crean y administran cuentas para sus hijos. Para empezar, suena inofensivo, incluso controlado. Pero internet no viene con un sistema de seguridad infalible. Porque por mucho cuidado que se tenga al gestionar una cuenta, no hay forma de evitar por completo el acceso de depredadores. Y ahí radica la razón por la que una iniciativa que podría parecer bienintencionada se convierte en algo más inquietante.
El problema de la crianza en Internet se ha vuelto real.
Redes sociales / Unsplash
Lo que antes era una inquietud silenciosa en la mesa familiar, ahora ha irrumpido con fuerza en los tribunales y las oficinas gubernamentales. La preocupación por los niños y las redes sociales se está convirtiendo en política pública. Países como Suiza y Austria ya no se mantienen al margen: están considerando activamente normas más estrictas, incluyendo prohibiciones totales, para los usuarios más jóvenes.
Un asombroso 94% de las personas encuestadas recientemente cree que los menores necesitan mayor protección frente al lado oscuro de las redes sociales. Esto no es una preocupación; es un clamor colectivo de "¡basta ya!".
Luego está la creciente desconfianza hacia las grandes tecnológicas. Alrededor del 78% de los encuestados cree que empresas como Meta y Google ejercen demasiada influencia sobre lo que la gente ve y piensa. Y es difícil rebatir eso. En Los Ángeles, un jurado declaró recientemente a Meta y Google responsables de crear plataformas que pueden perjudicar a los usuarios jóvenes. Esto es muy importante. Sienta un precedente y, lo que es más importante, envía un mensaje claro. La época del "no lo sabíamos" ha terminado. Ahora, la presión es mayor y, esta vez, no solo viene de los usuarios, sino también de la ley.
El salvaje oeste de las redes sociales tendrá un sheriff.
Unsplash
Lo que ahora resulta evidente es que el desenfreno en las redes sociales está llegando a su límite. Durante años, las plataformas se salieron con la suya haciendo lo mínimo indispensable, sobre todo con los usuarios más jóvenes. Pero esa actitud despreocupada, casi negligente, está empezando a resquebrajarse. Las pruebas se acumulan y la gente está prestando atención. Pero, ¿se trata realmente de proteger a los niños o de reforzar el control? Porque ambas cosas pueden parecer muy similares, dependiendo de quién tome las decisiones. Los gobiernos dirán que se trata de seguridad, y, para ser justos, hay algo de verdad en ello. Pero también hay una delgada línea entre la protección y el exceso de control, y esa línea se difumina cada día más.
Una cosa está clara: las redes sociales ya no son solo un patio de recreo para memes y para navegar sin rumbo. Se han convertido en algo mucho más grande, más caótico y mucho más serio. Y este debate no ha hecho más que empezar.
La estrategia de IA de Apple podría estar tomando un rumbo muy familiar, uno que convirtió al iPhone en lo que es hoy. Según un informe reciente de Bloomberg , Apple está trabajando en un nuevo sistema de "Extensiones" en iOS 27 que permitiría que asistentes de IA de terceros se integren directamente con Siri, incluidos servicios como Google Gemini y Claude de Anthropic .
Rachit Agarwal / Tendencias digitales
Más importante aún, no se tratará simplemente de una configuración oculta. Según se informa, Apple planea crear una sección dedicada dentro de la App Store para estas integraciones de IA, lo que generaría un mercado para herramientas de IA, muy similar a cómo se distribuyen las aplicaciones hoy en día.
¿Qué significa esto realmente para Siri?
Es un cambio radical. En lugar de intentar crear una IA perfecta, Apple parece estar convirtiendo a Siri en un centro o "enrutador" para múltiples modelos de IA, permitiendo a los usuarios elegir qué asistente gestiona sus consultas. Esto significa que Siri podría funcionar como interfaz, mientras que diferentes IA se encargarían de distintas tareas: una para escribir, otra para programar, otra para investigar. Ya no se trata tanto de "Siri contra ChatGPT", sino más bien de "Siri + todo".
Según se informa, Apple está siguiendo una estrategia doble: desarrollar su propia IA interna (Apple Intelligence) y, al mismo tiempo, abrir la puerta a servicios de terceros. Esto le permite a Apple mantenerse competitiva sin depender de un solo modelo y, además, evita que los usuarios se pasen a Android.
También hay un aspecto comercial. Al convertir las herramientas de IA en algo que los usuarios puedan instalar a través de la App Store, Apple podría obtener una comisión por las suscripciones, tal como lo hace actualmente con las aplicaciones.
Entonces… ¿Siri se está convirtiendo en la nueva App Store?
Esto podría cambiar por completo el funcionamiento de la IA en los teléfonos. En lugar de depender de un único asistente para todo, Apple parece estar avanzando hacia una configuración modular donde los usuarios pueden combinar diferentes herramientas de IA según sus necesidades. Y si esta visión se materializa, Siri dejará de ser solo un asistente para convertirse en una plataforma.
Apple nos prometió una Siri más inteligente y capaz en la WWDC 2024. La propuesta fue convincente: una Siri que comprende tu contexto personal, examina tus mensajes y correos electrónicos, realiza acciones dentro de tus aplicaciones y evoluciona hasta convertirse en un verdadero asistente.
Dos años después, ese sueño sigue siendo solo eso, un sueño. Pero aquí está el detalle que podría cambiar el rumbo del asistente de Apple. Según los informes, Siri ya no está vinculado a una única inteligencia artificial . Apple lo está diseñando para que sea flexible, capaz de redirigir las solicitudes al modelo externo que mejor se adapte a sus necesidades.
Esto me hizo plantearme una pregunta. Si Siri puede usar cualquier IA , ¿cuál debería usar? Actualmente, el modelo externo predeterminado es ChatGPT. Pero yo diría que Gemini es la opción más lógica, y aquí les explico por qué.
Siri es un motor de búsqueda
Piensa en cómo usas Siri a diario. Preguntas por el tiempo. Preguntas por los restaurantes más cercanos. Le pides que busque información en internet. Una parte importante del uso de Siri consiste en búsquedas o consultas similares, y ninguna empresa en el mundo realiza búsquedas mejor que Google .
Rachit Agarwal / Tendencias digitales
Google ha dedicado décadas a desarrollar el motor de búsqueda más potente, y esa experiencia ahora se integra directamente en Gemini . Cuando le haces una pregunta a Gemini , no solo recurre a un modelo de lenguaje, sino que extrae datos del índice web en tiempo real de Google, Google Maps, Google Shopping y mucho más.
Google
Utilizar esa tecnología para potenciar la capacidad de búsqueda de Siri la llevará a nuevas cotas que ningún otro proveedor de gestión del lenguaje natural (LLM) puede igualar.
Apple prometió inteligencia personal, pero Gemini la está cumpliendo.
Uno de los temas más comentados del anuncio de Apple en la WWDC 2024 fue la inteligencia personal. Apple mostró cómo Siri extrae información contextual de todas las aplicaciones y responde preguntas como "¿Cuándo aterriza el vuelo de mi madre?" o "Muéstrame fotos de Stacy con su abrigo rosa de Nueva York".
Manzana
La demostración fue realmente impresionante. Sin embargo, si le pido que me muestre una foto mía con una camiseta negra, me muestra fotos aleatorias de personas de internet con camisetas negras. No exagero al decir que la función de inteligencia personal de Siri ha sido un fracaso rotundo.
Rachit Agarwal / Tendencias digitales
Mientras tanto, Gemini lanzó discretamente su propia función de Inteligencia Personal. Esta accede a tu Gmail, Calendario, Google Fotos, Drive y más para analizar tus datos personales y responder preguntas complejas sobre tu vida. No es perfecta, pero al menos funciona.
Google
Eso es prácticamente lo mismo que Apple estaba mostrando como una futura función de Siri, solo que Gemini lo está haciendo hoy . Si Apple quiere acelerar la implementación de esas funciones para los usuarios, Gemini podría ser el atajo que necesita.
Géminis ya hace lo que Siri prometió.
Apple Intelligence implementa un modelo de IA compacto y potente en todas las aplicaciones del sistema, combinando el procesamiento en el dispositivo para garantizar la privacidad con la computación en la nube para las tareas más exigentes. El procesamiento en el dispositivo y la privacidad son los aspectos que distinguen a Apple de la competencia. Pero ahora no está sola.
Manzana
Gemini Nano ya ofrece esta funcionalidad en dispositivos Pixel y Samsung Galaxy. Permite la creación de resúmenes sin conexión, respuestas inteligentes y funciones contextuales, todo ello sin necesidad de conexión a internet. En Pixel 9 y modelos posteriores, Gemini Nano es multimodal y puede procesar imágenes, textos e idiomas directamente en el dispositivo.
Google Gemini NanoGoogle
Apple está desarrollando soluciones basadas en lo que Google ya ha lanzado. En lugar de reinventar la rueda, usar la implementación existente de Nano de Gemini como base para las funciones de Siri en los dispositivos le ahorraría a Apple muchos dolores de cabeza y dinero.
El conjunto de herramientas creativas de Géminis está repleto de ellas.
Aquí es donde la cosa se pone realmente interesante. Gemini no es solo un modelo de texto. Viene con todo un ecosistema creativo que Apple podría aprovechar.
Veo genera vídeos con una resolución de hasta 1080p, con estilos cinematográficos y clips de más de un minuto. Lyria , de Google DeepMind, se encarga de la generación de música y audio. En cuanto a imágenes, Nano Banana (el servicio de generación de imágenes de Google) recibió recientemente una importante actualización, con una mejor representación del texto, mayor coherencia en los sujetos y compatibilidad con cualquier relación de aspecto.
Google/TendenciasDigitales
Apple ha lanzado recientemente su propio Creator Studio , que ofrece a los usuarios acceso a herramientas creativas mediante una suscripción mensual fija. Si la compañía pretende competir seriamente con empresas como Adobe, necesita ofrecer capacidades generativas. Y resulta que Gemini ya cuenta con todas esas capacidades, por lo que integrarlo en la suite creativa de Apple sería una decisión lógica.
Este punto no se discute lo suficiente. Según se informa, Google paga a Apple alrededor de 20 mil millones de dólares al año para seguir siendo el motor de búsqueda predeterminado en Safari. Se trata de uno de los acuerdos de distribución más valiosos en la historia de la tecnología. La relación entre Apple y Google es profunda, de larga data y económicamente enorme para ambas compañías.
Extender esa relación, desde «Google impulsa la búsqueda de Safari» hasta «Gemini impulsa las funciones de IA de Siri», no supone un salto drástico. Es una evolución natural de una colaboración que controla la mitad de lo que ocurre cuando abres un navegador en tu iPhone.
¿Con qué modelo me quedaría?
Claude es excelente para la lectura de textos extensos y el razonamiento matizado. ChatGPT cuenta con un ecosistema enorme y herramientas de codificación y agentes robustas. Ambos funcionan de maravilla como especialistas elegidos por el usuario. Yo mismo uso Claude en mi ordenador.
Pero ¿como motor predeterminado de Siri? No son la opción adecuada. Gemini funciona a nivel del sistema operativo en dispositivos móviles, comprende búsquedas y contextos personales, se presenta en un formato Nano integrado en el dispositivo y se encuentra en el centro de la relación comercial más importante que Apple mantiene con cualquier empresa tecnológica.
Todos los elementos están presentes. No se trata de si Gemini podría potenciar una Siri más inteligente, sino de si Google y Apple lograrán un acuerdo mutuamente beneficioso. Y, a juzgar por los rumores, parece que ya estamos avanzando en esa dirección.
A partir de agosto de 2026, Google endurecerá las restricciones para la instalación de aplicaciones de fuentes no verificadas. Si deseas instalar apps de fuentes desconocidas , tendrás que seguir un nuevo proceso avanzado que se asemeja a un exhaustivo análisis de seguridad. Esto incluye activar el modo desarrollador , revisar manualmente las advertencias de seguridad, reiniciar el teléfono para bloquear cualquier acceso remoto sospechoso y esperar un período de espera obligatorio de 24 horas antes de continuar. El objetivo es que te tomes tu tiempo para detectar una estafa antes de que te afecte. Una vez completado el proceso, no tendrás que repetirlo cada vez. Es la forma que tiene Google de decir: «Adelante, instala aplicaciones de fuentes no verificadas, pero hazlo con cuidado».
Tu próxima actualización no se verá afectada en absoluto.
Jesse Hollington / Tendencias Digitales
Según Matthew Forsythe, jefe de explicación de productos de Google , este nuevo sistema está diseñado para adaptarse a tus necesidades, no para ralentizarte. Una vez que completes el proceso avanzado en tu teléfono Android actual, esos permisos se transferirán a la configuración de tu próximo dispositivo. Así, realizas la configuración una sola vez y tu futuro teléfono la recordará, lo que hace que todo sea mucho menos engorroso de lo que parece al principio.
También aclaró algunos detalles importantes si te dedicas a la instalación de aplicaciones externas. Para empezar, las instalaciones mediante Android Debug Bridge (ADB) no están sujetas al período de espera de 24 horas. No existe un comando abreviado para omitir el temporizador, así que si intentas instalar algo durante ese lapso, ADB se convierte en tu única opción. Se trata de mantener el proceso principal bajo estricto control.
También hay un inconveniente con las actualizaciones. Si instalas aplicaciones de fuentes no verificadas, debes mantener activo el flujo avanzado para actualizarlas posteriormente. Incluso si eliges la opción de acceso temporal de siete días, este caduca y tendrás que repetir el proceso si quieres mantener esas aplicaciones actualizadas. Como señala Forsythe, esta configuración está claramente pensada para pruebas o uso a corto plazo, no para crear una biblioteca permanente de aplicaciones instaladas manualmente.
La buena noticia es que el modo desarrollador no tiene por qué estar activado permanentemente. Solo lo necesitas para completar la configuración inicial. Una vez finalizada, puedes desactivarlo y usar tu teléfono con normalidad. Esto supone un gran alivio, sobre todo porque algunas aplicaciones bancarias y sensibles a la seguridad suelen dar problemas cuando el modo desarrollador está activado. En resumen, Google está añadiendo cierta resistencia donde importa, sin que ello afecte a tu experiencia diaria.
Las gafas inteligentes ya estaban en el punto de mira por problemas de privacidad. Pero ahora, surge un nuevo problema: las trampas. Y, sorprendentemente, son muy fáciles de hacer.
Nadeem Sarwar / Tendencias Digitales
Un informe reciente de Rest of World destaca cómo se están utilizando gafas inteligentes con IA para escanear preguntas de examen y mostrar las respuestas directamente en la lente, convirtiéndolas esencialmente en una herramienta para hacer trampa en tiempo real. En algunos casos, los estudiantes incluso alquilan estas gafas por tan solo 6 dólares al día, usándolas no solo para navegar o traducir, sino específicamente para obtener una ventaja injusta en los exámenes.
¿Cómo funciona esto?
Se trata de una combinación de hardware e inteligencia artificial que se están poniendo al día. Las gafas inteligentes modernas vienen equipadas con cámaras, micrófonos y asistentes de IA que pueden analizar lo que estás viendo y responder en tiempo real. Esto significa que una pregunta escrita puede ser escaneada, procesada por un modelo de IA y devuelta como respuesta. Todo sin necesidad de sacar el teléfono. Y como estos dispositivos parecen gafas normales, son mucho más difíciles de detectar que los métodos tradicionales para hacer trampa.
Phil Nickinson / Tendencias Digitales
Para colmo, dispositivos como las gafas inteligentes Ray-Ban Meta ya han generado preocupación por la grabación encubierta y la privacidad, y los críticos señalan la facilidad con la que se pueden tomar fotos o vídeos sin que nadie se dé cuenta. Ahora, con la aparición de las trampas, la preocupación no se limita a ser vigilado, sino que también abarca la equidad, la confianza y la forma en que las instituciones hacen cumplir las normas.
Cuando la inteligencia se vuelve… demasiado inteligente.
Esto va mucho más allá de las trampas en los exámenes; supone un desafío para todo el sistema. Los expertos advierten que dispositivos como las gafas inteligentes con IA podrían desbaratar los métodos tradicionales de detección de irregularidades, ya que son sutiles, están siempre activas y son difíciles de rastrear. Algunas regiones ya han empezado a tomar medidas drásticas, como desactivar temporalmente las herramientas de IA durante los exámenes, simplemente para adelantarse a los problemas.
Al mismo tiempo, nos adentramos en una era de «tecnología invisible», donde estos dispositivos son realmente útiles, pero también fáciles de usar indebidamente. Y ese es el verdadero dilema: cuando la tecnología se vuelve tan fluida, la línea entre ayudar y engañar empieza a desdibujarse.
Un canal de YouTube realizó una prueba de batería en dos versiones del Galaxy S26 . El mismo teléfono, las mismas tareas, las mismas condiciones, pero la única diferencia era el chip interno. ¿La diferencia? Resultó ser casi tres horas de uso de pantalla.
Android Addicts realizó una prueba de batería comparando dos unidades del Galaxy S26: una con procesador Exynos 2600 (disponible en algunos mercados asiáticos) y la otra con procesador Snapdragon 8 Elite Gen 5 (disponible en Estados Unidos).
¿Qué tan grave es?
El canal realizó tareas idénticas en los teléfonos, incluyendo llamadas, grabación de video 4K, navegación, transmisión de contenido, pruebas de rendimiento en juegos y uso de redes sociales. Si bien no es necesario realizar todas estas tareas diariamente en un teléfono inteligente, este tipo de pruebas suelen sobrecargar el dispositivo y agotar la batería.
Para obtener los mejores resultados posibles, ambos teléfonos mantuvieron el Wi-Fi desactivado y el 5G activado en todo momento. ¿El resultado? El S26 con procesador Snapdragon duró 9 horas y 26 minutos, mientras que la variante con Exynos duró 6 horas y 48 minutos; una diferencia de casi el 28%, o dos horas y media de uso real.
El Galaxy S26 con procesador Exynos ni siquiera llegó a la fase de prueba de batería de Instagram y Amazon Prime Video , dejando que la unidad Snapdragon siguiera adelante.
Nadeem Sarwar / Tendencias Digitales
¿Por qué el chip de Samsung está perdiendo terreno frente al de Qualcomm?
La respuesta corta: calor y hambre. El chip Exynos 2600 consume alrededor de 30 W bajo carga máxima, lo que supone un 40 % más que el límite de 21 W del Snapdragon 8 Elite Gen 5 , para un rendimiento multinúcleo prácticamente idéntico.
Esos picos de potencia generan calor, lo cual perjudica la eficiencia del chipset, y la consiguiente disminución de la eficiencia aumenta el consumo de batería. Durante la codificación de vídeo, especialmente en el Galaxy S26 con procesador Exynos, este comenzó a sobrecalentarse, reduciendo aún más su autonomía.
Ahora bien, para ser justos, el Exynos 2600 aún ostenta el título de ser el primer chip GAA de 2 nm del mundo . Sin embargo, en este momento, parece que ese distintivo tiene más valor para el marketing que un rendimiento real en el mundo real.
Tom Bedford / Tendencias Digitales
Esta diferencia no afecta a los compradores del Galaxy S26 en Estados Unidos. Sin embargo, para quienes vivimos en otros mercados (como yo), la prueba de consumo de batería resulta frustrante, ya que pone de manifiesto la brecha que aún existe entre los procesadores más recientes de Samsung y Qualcomm.
Durante años, los Chromebooks fueron considerados el dispositivo perfecto para el aula: económicos, sencillos y fáciles de usar. Pero ahora, las escuelas de todo Estados Unidos están replanteándose su estrategia. Resulta que el problema no radica en el hardware, sino en cómo se utiliza.
Según un informe reciente del New York Times , las escuelas descubrieron que, incluso después de prohibir los teléfonos inteligentes, los estudiantes seguían distrayéndose, esta vez con sus Chromebooks proporcionadas por la escuela, viendo videos, jugando o incluso utilizando las cuentas escolares para acosar a otros estudiantes. En un caso, una escuela secundaria en Kansas llegó al extremo de confiscar todas las Chromebooks de los estudiantes y limitar su uso a actividades específicas en el aula, lo que provocó que los estudiantes volvieran a tomar notas a mano para la mayoría de las tareas.
¿Por qué están dando marcha atrás las escuelas ahora?
Durante más de una década, las empresas tecnológicas promovieron la idea de "un portátil por estudiante", prometiendo una mayor participación y mejores resultados de aprendizaje. Sin embargo, estudios recientes sugieren que el uso intensivo de herramientas digitales no ha mejorado significativamente el rendimiento académico ni las tasas de graduación. De hecho, organizaciones como la UNESCO han advertido que la dependencia excesiva de la tecnología puede distraer a los estudiantes y obstaculizar el aprendizaje, algo que las escuelas están experimentando de primera mano.
Además, tanto profesores como padres están cada vez más preocupados por el tiempo frente a las pantallas, la capacidad de atención y el comportamiento social. Algunos señalan que los alumnos interactúan menos y tienen más dificultades para concentrarse cuando los dispositivos están siempre presentes. De hecho, algunas escuelas están experimentando con un enfoque más equilibrado, reservando los Chromebooks para tareas específicas como la programación o la investigación, al tiempo que recuperan el aprendizaje con papel, los debates en grupo y las actividades sin conexión a internet.
Entonces… ¿los Chromebooks van a quedar relegados al olvido?
No del todo, pero sin duda se les está pidiendo que se mantengan al margen con más frecuencia. Las escuelas no están abandonando la tecnología por completo; simplemente están replanteando su uso, tratando a las Chromebooks como herramientas en lugar de compañeras de escritorio permanentes. Y, sinceramente, esa podría ser la lección más importante. Más pantallas no significan mágicamente un mejor aprendizaje, y a veces, volver a lo tradicional puede ser más efectivo.
Utilizamos cookies para asegurarnos de brindarle la mejor experiencia en nuestro sitio web. Si continúa utilizando este sitio, asumiremos que está satisfecho con él.