Desde Open AI hasta gafas inteligentes pirateadas, aquí están los 5 titulares más importantes sobre IA esta semana
Hicimos la transición oficialmente a Spooky Season esta semana y, entre la ronda de financiación de $ 6,6 millones de OpenAI, el LLM sorpresa de Nvidia y algunas Meta Smart Glasses que invaden la privacidad, vimos una cantidad aterradora de desarrollos en el espacio de la IA. Aquí están cinco de los anuncios más importantes.
OpenAI obtiene 6.600 millones de dólares en su última ronda de financiación
La encantadora existencia de Sam Altman continúa a buen ritmo con la noticia esta semana de que OpenAI ha asegurado una inversión adicional de 6.600 millones de dólares como parte de su ronda de financiación más reciente. A los inversores existentes como Microsoft y Khosla Ventures se unieron los recién llegados SoftBank y Nvidia. La empresa de inteligencia artificial está valorada ahora en la friolera de 157 mil millones de dólares, lo que la convierte en una de las empresas privadas más ricas del planeta. Y, si el plan de reestructuración con fines de lucro propuesto por OpenAI se lleva a cabo, esa valoración le otorgaría a Altman más de 150 mil millones de dólares en capital, lo que lo colocaría en la lista de las 10 personas más ricas del planeta. Tras las noticias de financiación, OpenAI lanzó Canvas , su versión de la función colaborativa Artifacts de Anthropic.
Nvidia acaba de lanzar un LLM de código abierto para rivalizar con GPT-4
Nvidia está dando el salto del hardware de IA al software de IA con el lanzamiento de esta semana de LVNM 1.0 , un modelo de lenguaje grande verdaderamente de código abierto que sobresale en una variedad de tareas de visión y lenguaje. La compañía afirma que la nueva familia de modelos, encabezada por el LVNM-D-72B de 72 mil millones de parámetros, puede rivalizar con el GPT-4o. Sin embargo, Nvidia está posicionando a LVNM no como un competidor directo de otros LLM de vanguardia, sino como una plataforma en la que otros desarrolladores pueden crear sus propios chatbots y aplicaciones.
Gemini Live de Google ahora habla casi cuatro docenas de idiomas
Parece que poder hablar directamente con tu chatbot es la nueva característica imprescindible. Google anunció esta semana que estáampliando Gemini Live para conversar en casi cuatro docenas de idiomas además del inglés, comenzando con francés, alemán, portugués, hindi y español. Microsoft también reveló una característica similar para Copilot, denominada Copilot Voice , que según la compañía es "la forma más intuitiva y natural de intercambiar ideas sobre la marcha". Se unen al modo de voz avanzado de ChatGPT y a las interacciones de voz natural de Meta para permitir a los usuarios hablar con sus teléfonos, no solo con ellos.
El gobernador de California veta un amplio proyecto de ley sobre seguridad de la IA
Toda la lucha por la SB 1047, la Ley de Innovación Segura para Modelos Artificiales Fronterizos de California, fue en vano, ya que el gobernador Gavin Newsom vetó el proyecto de ley de seguridad de la IA esta semana . En una carta a los legisladores, argumentó que el proyecto de ley se centraba miopemente en los modelos lingüísticos más grandes y que “modelos más pequeños y especializados pueden surgir como igual o incluso más peligrosos que los modelos a los que apunta la SB 1047”.
Los piratas informáticos convierten las gafas inteligentes Meta en una máquina automática de doxing
Un par de estudiantes de informática de Harvard lograron modificar un par de gafas Meta inteligentes disponibles comercialmente para que puedan identificar y buscar a cualquier persona que entre en su campo de visión, informó 404 Media esta semana . Las gafas, parte del experimento I-XRAY, fueron diseñadas para capturar imágenes de extraños en la calle, pasar esas imágenes a través del software de reconocimiento de imágenes PimEyes para identificar al sujeto y luego usar esa información básica para buscar su información personal (es decir, su número de teléfono y domicilio) en sitios de intermediación de datos comerciales.
"Para usarlo, simplemente te pones las gafas y luego, cuando pasas junto a la gente, las gafas detectarán cuando la cara de alguien está encuadrada", explicó la pareja en una demostración en vídeo publicada en X. "Después de unos segundos, su información personal aparece en su teléfono". Las implicaciones de privacidad para un sistema así son aterradoras. El dúo no tiene intención de publicar públicamente el código fuente, pero ahora que han demostrado que se puede hacer, hay poco que impida que otros realicen ingeniería inversa.