Blog

  • Microsoft creó un agente de IA para abogados en Word. Esperemos que no se descontrole.

    Microsoft creó un agente de IA para abogados en Word. Esperemos que no se descontrole.

    Microsoft Word incorpora un agente legal con IA, lo cual suena útil hasta que recordamos los malos resultados que se han obtenido anteriormente. El nuevo agente legal puede revisar contratos, sugerir ediciones, comparar versiones y señalar cláusulas de riesgo dentro de Word. En teoría, estas funciones parecen bastante útiles y prácticas; sin embargo, casos de herramientas de IA generativa que, mediante alucinaciones, inventan casos, citas y referencias completas de la nada, han causado problemas legales a personas reales.

    ¿Qué puede hacer el agente legal de Microsoft?

    Microsoft afirma que Legal Agent está disponible a través de Copilot en Word para los usuarios de su programa Frontier en EE. UU. Actualmente funciona en Word para Windows. No se requiere ninguna aplicación ni instalación adicional, aunque algunos usuarios podrían necesitar reiniciar Word para que aparezca el agente.

    Legal Agent está diseñado para la revisión de contratos y documentos. Microsoft afirma que puede cotejar cláusula por cláusula de un contrato con un manual legal, revisar un acuerdo completo, comparar diferentes versiones, identificar riesgos y obligaciones, y sugerir ediciones con control de cambios. Además, conserva intactos el formato original, las tablas, las listas y el historial de negociación.

    La empresa también intenta evitar el peor escenario posible, tanto para sus usuarios como para sí misma. La función incluye medidas de seguridad integradas, como la provisión de citas vinculadas al texto original, para que los revisores puedan consultar las sugerencias antes de utilizarlas. Además, se incluyen avisos legales claros que indican que no ofrece asesoramiento jurídico, que puede generar contenido inexacto y que, aun así, requiere la revisión de un profesional jurídico cualificado antes de su uso.

    ¿Por qué deberían seguir estando nerviosos los abogados?

    Ya existen precedentes de IA descontrolada en el ámbito legal: en 2023, dos abogados neoyorquinos fueron sancionados y multados con 5000 dólares tras presentar un documento judicial que incluía casos falsos generados por ChatGPT. Michael Cohen, exabogado de Donald Trump, también admitió haber proporcionado, sin saberlo, a su abogado citas falsas generadas por Google Bard. Si bien Cohen no fue sancionado, el juez calificó el incidente de vergonzoso e hizo hincapié en la necesidad de ser escépticos al utilizar la IA en el trabajo jurídico.

    No se trata de casos aislados, ya que los jueces han cuestionado o sancionado a abogados en múltiples ocasiones relacionadas con presentaciones asistidas por IA, y un científico de datos y abogado francés identificó cientos de documentos judiciales que contenían citas falsas y referencias inexistentes durante el último año.

    El mayor problema es que las alucinaciones persisten . Los chatbots de IA aún pueden ofrecer respuestas que suenan seguras, aunque sean parcial o totalmente erróneas. En el ámbito legal, esto es especialmente peligroso, ya que una cita inventada o un caso ficticio pueden acabar en una demanda y acarrear graves consecuencias.

    Microsoft ha implementado numerosas medidas de seguridad en Legal Agent para prevenir estos problemas; sin embargo, la lección ya está plasmada en los registros judiciales. La IA puede agilizar el trabajo legal, pero la responsabilidad de verificar los hechos sigue recayendo en el abogado.

  • Un estudio de Oxford afirma que un amigo con inteligencia artificial te mentirá y alimentará tus falsas creencias.

    Un estudio de Oxford afirma que un amigo con inteligencia artificial te mentirá y alimentará tus falsas creencias.

    Intentar que la IA parezca más humana podría estar generando un problema mayor de lo esperado. Un nuevo estudio del Instituto de Internet de Oxford reveló que los chatbots diseñados para ser cálidos y amigables tienen más probabilidades de engañar a los usuarios y reforzar creencias erróneas.

    La investigación reveló que la IA se vuelve menos fiable a medida que empieza a ser más complaciente.

    ¿Qué le sucede a una IA “amigable”?

    Los investigadores probaron varios modelos de IA entrenándolos para que sonaran más empáticos y conversacionales. El resultado fue una notable disminución en la precisión. Estas versiones más "amigables" cometieron entre un 10 % y un 30 % más de errores y fueron aproximadamente un 40 % más propensas a estar de acuerdo con afirmaciones falsas en comparación con sus contrapartes.

    La situación empeoraba aún más cuando los usuarios parecían vulnerables o emocionalmente angustiados. En estos casos, la IA tiende a validar lo que dice el usuario en lugar de corregirlo.

    Por qué esto es malo para ti

    Lo preocupante de los hallazgos fue la facilidad con la que la IA podía volverse complaciente. Evitaba cuestionar la desinformación y tendía a considerar y respaldar ideas erróneas o incorrectas. Durante las pruebas, se observó que el "compañero" de IA dudaba en corregir incluso afirmaciones ampliamente desacreditadas y, en ocasiones, presentaba creencias falsas como "abiertas a interpretación". Los investigadores señalaron que esto se asemejaba, en cierta medida, a las tendencias humanas.

    Ser empático y brutalmente honesto al mismo tiempo no siempre es fácil, y parece que la IA no maneja este dilema mejor. Con el uso cada vez mayor de chatbots de IA para brindar asesoramiento, apoyo emocional y facilitar la toma de decisiones cotidianas, esto va más allá de una mera preocupación académica. El estudio destaca cómo confiar en la IA para obtener orientación puede ser contraproducente, ya que el sistema priorizará el consenso sobre la precisión, lo que puede reforzar patrones de pensamiento dañinos y promover la desinformación.

    Esto llega en un momento en que las principales plataformas de IA, como OpenAI y Anthropic , junto con aplicaciones de chatbot social como Replika y Character.ai , están apostando por experiencias de IA más parecidas a las de un compañero. En el estudio, los investigadores probaron varios modelos de IA, incluido GPT-4o .

    Puede que la IA te parezca tu amiga, pero no siempre tiene las mejores respuestas para ti.

  • ¿La IA se ha vuelto elitista? Una investigación revela que el acceso está sesgado hacia los ricos, lo que podría generar una nueva brecha social.

    ¿La IA se ha vuelto elitista? Una investigación revela que el acceso está sesgado hacia los ricos, lo que podría generar una nueva brecha social.

    Un nuevo estudio ha revelado que el acceso y la comprensión de las herramientas de inteligencia artificial (IA) se concentran cada vez más entre las personas con mayores ingresos y nivel educativo, lo que genera preocupación por la creciente brecha digital . La investigación, basada en datos de más de 10 000 adultos en Estados Unidos, muestra que las personas con mayores ingresos y niveles educativos tienen una probabilidad significativamente mayor de conocer, familiarizarse y utilizar activamente las tecnologías de IA.

    La falta de conocimiento y uso está generando una nueva brecha.

    El estudio pone de manifiesto un patrón claro: las personas de entornos socioeconómicos más desfavorecidos tienen menos probabilidades de reconocer dónde se utiliza la IA o de comprender cómo beneficiarse de ella. Esta brecha va más allá del simple acceso a dispositivos o a internet y refleja diferencias en el conocimiento, las habilidades y el uso.

    Los investigadores describen esto como una nueva forma de desigualdad digital . Si bien la IA se está integrando en herramientas cotidianas —desde sistemas de contratación hasta plataformas de contenido—, quienes comprenden su funcionamiento pueden aprovecharla. Por ejemplo, los solicitantes de empleo que saben que la IA se utiliza en la selección de personal pueden adaptar sus currículos en consecuencia, mientras que otros pueden perder oportunidades sin darse cuenta del motivo.

    Por qué esto importa ahora

    Estos hallazgos se producen en un momento en que la IA está transformando rápidamente las industrias, la educación y la vida cotidiana. A diferencia de las brechas digitales anteriores, que se centraban principalmente en el acceso a internet, la brecha actual es más compleja. Incluye la falta de conocimiento, la capacidad de usar la IA de manera efectiva y los beneficios que se obtienen de ella.

    Los expertos advierten que esto podría reforzar las desigualdades existentes. Quienes poseen un mayor conocimiento de la IA no solo están mejor preparados para usarla de forma productiva, sino que también son más conscientes de sus riesgos, como la desinformación o las falsificaciones profundas (deepfakes). Por el contrario, quienes tienen un conocimiento limitado pueden ser más vulnerables a la manipulación o al mal uso de esta tecnología.

    Qué significa para los usuarios

    Para los usuarios cotidianos, las implicaciones son prácticas. La IA ya está influyendo en las solicitudes de empleo, los servicios financieros, la atención médica y la información en línea. Quienes puedan utilizar estas herramientas de manera efectiva podrán obtener ventajas en eficiencia, toma de decisiones y oportunidades.

    Por otro lado, una exposición limitada a la IA podría resultar en oportunidades perdidas o una menor competitividad en un mercado laboral cada vez más condicionado por la automatización y los sistemas basados ​​en datos. Esto crea un escenario donde la tecnología amplifica las diferencias sociales y económicas existentes en lugar de reducirlas.

    ¿Qué sigue?

    El estudio se suma a la creciente preocupación mundial por la desigualdad impulsada por la IA. Informes anteriores han advertido que la IA podría ampliar las brechas no solo entre individuos, sino también entre países, dependiendo del acceso a infraestructura, educación y recursos.

    Los investigadores destacan la necesidad de políticas que mejoren la alfabetización en IA y amplíen el acceso a estas herramientas. Esto incluye iniciativas educativas, una mejor integración del conocimiento sobre IA en los entornos laborales y esfuerzos para que los sistemas de IA sean más transparentes y accesibles.

    A medida que la adopción de la IA continúa acelerándose, abordar este desequilibrio será fundamental. Sin intervención, los beneficios de la IA podrían seguir concentrándose en quienes ya gozan de ventajas, profundizando la brecha en un mundo cada vez más digital.

  • ¿Crees que el vibecoding te convertirá en un empresario rico? Quizás quieras leer el informe de riesgos.

    ¿Crees que el vibecoding te convertirá en un empresario rico? Quizás quieras leer el informe de riesgos.

    Si has soñado con crear tu propia aplicación sin escribir una sola línea de código, la programación intuitiva probablemente te parezca la solución ideal. Describes lo que quieres, la IA la crea y la publicas. Sin embargo, un nuevo informe del Consejo de Política Tecnológica de la Asociación para la Maquinaria de Computación (ACM) indica que la realidad es mucho más compleja.

    El informe técnico de la ACM , del que Simson Garfinkel, científico jefe de BasisTech, es coautor, no descarta su atractivo. Aplicaciones de programación intuitivas como Loveable y Firebase Studio de Google facilitan el desarrollo de software a personas sin experiencia en programación. Además, liberan a los desarrolladores experimentados de tareas repetitivas y poco creativas, permitiéndoles centrarse en el diseño y la resolución de problemas.

    Muchos desarrolladores afirman sentirse más productivos con estas herramientas, sobre todo en tareas rutinarias. Sin embargo, estas mejoras en la productividad se basan principalmente en autoinformes y podrían no mantenerse tras una medición rigurosa a lo largo del tiempo.

    Por qué los proyectos con código de vibraciones conllevan graves riesgos ocultos

    Los problemas son más profundos que los errores ocasionales en la salida de código. Las herramientas de codificación de IA aprenden del código disponible públicamente, incluido el código plagado de vulnerabilidades de seguridad, y reproducen esos fallos sin detectarlos .

    Las pruebas constituyen otro punto débil. Pocas plataformas de codificación de Vibe verifican sistemáticamente que su resultado se ejecute correctamente y, en casos documentados, se ha observado que los sistemas de IA eliminan o desactivan sus propias pruebas en lugar de solucionar el problema subyacente.

    El código resultante suele ser excesivo, estar mal documentado y ser tan complejo que la revisión humana resulta inviable. Las herramientas de codificación con comportamiento autónomo, que ejecutan código de forma independiente en sistemas y redes sin aprobación humana, aumentan aún más los riesgos. Pueden eliminar archivos, filtrar datos confidenciales o ser manipuladas mediante ataques de inyección de comandos, en los que terceros insertan instrucciones maliciosas.

    La codificación Vibe también genera más código con mayor rapidez que el desarrollo tradicional, lo que suena eficiente pero conlleva un mayor consumo de energía. Además, existe una preocupación en cuanto a las habilidades. Un estudio interno reveló que los programadores principiantes que utilizan estas herramientas desarrollaron una comprensión más débil de los conceptos básicos con el tiempo. El informe lo denomina una «brecha de experiencia» que podría contribuir a una escasez de desarrolladores experimentados en el futuro.

    Qué deben hacer las organizaciones antes de enviar código generado por IA.

    El informe de la ACM deja claro en qué consiste una adopción responsable. El código generado por IA necesita pruebas rigurosas y una verificación formal antes de siquiera acercarse a la producción. Los resultados deben auditarse con herramientas especializadas, y la supervisión humana debe integrarse en la ejecución y el despliegue.

    Además, los equipos deben planificar la mantenibilidad a largo plazo desde el primer día, asegurándose de que lo que se desarrolle pueda ser comprendido y gestionado por desarrolladores humanos en el futuro. La programación intuitiva es potente, pero sin estas medidas de seguridad, advierte el informe, los fallos son totalmente predecibles.

  • Creamos IA para salvarnos del correo electrónico, y de alguna manera lo que hizo fue que el correo electrónico fuera aún más agotador.

    Creamos IA para salvarnos del correo electrónico, y de alguna manera lo que hizo fue que el correo electrónico fuera aún más agotador.

    Escribir un correo electrónico ya es una de las tareas más tediosas del trabajo moderno, así que, como era de esperar, la industria tecnológica decidió automatizarlo . La IA pretendía aligerar la carga de trabajo gestionando las tareas más rutinarias: eliminar el correo basura repetitivo, reducir la sobrecarga de la bandeja de entrada y devolver tiempo a los usuarios. Parecía una idea genial. Pero, en realidad, estamos muy lejos de haber eliminado la monotonía del correo electrónico.

    El tipo de correo electrónico que ya estás harto de ver

    La IA reduce el esfuerzo necesario para producir un lenguaje corporativo. Esto significa que expresiones como "solo para dar seguimiento", "retomando el tema", "un recordatorio amable" y "encantado de conectar" son aún más fáciles de generar y aún más difíciles de evitar.

    Una persona que antes evitaba enviar correos electrónicos innecesarios ahora puede pedirle a la IA que los redacte en segundos. Y quien respondía antes solía resumir el mensaje en dos frases cortas. Ahora siempre hay una versión más elaborada, extensa y profesional disponible gracias a un chatbot. Recientemente, The Guardian informó sobre la frustración de los trabajadores con los resultados generados por la IA en el trabajo, incluyendo lo que algunos empleados denominan ahora "trabajos descuidados".

    La IA le ha dado esteroides a los malos hábitos de correo electrónico.

    El correo electrónico nunca se limitó a la comunicación. También se convirtió en una forma de demostrar capacidad de respuesta, utilidad y dinamismo. Una respuesta rápida, una agenda completa y una larga conversación dan la impresión de mayor productividad, incluso cuando nadie lo necesita realmente. La IA se integra perfectamente en esta cultura. Puede responder más rápido, resumir más rápido, programar más rápido y mantener la ilusión de progreso durante todo el día.

    El correo electrónico de oficina ya premia tanto el rendimiento como la utilidad. Ahora, cualquier idea a medio formar puede convertirse en un párrafo pulido. Las frases se pueden mejorar y las actualizaciones de poco valor se pueden rellenar para que parezcan más formales, diplomáticas, corporativas e incluso insulsas. Usar IA no mejora la comunicación. Lo que se obtiene, en cambio, es más comunicación. La bandeja de entrada está llena de mensajes, relleno y un nuevo lenguaje diseñado para parecer productivo sin ser necesariamente útil.

    La situación empeora cuando todos empiezan a hacerlo, agravando el problema. Alguien envía un correo electrónico impecable, redactado con inteligencia artificial. La respuesta llega con su propia redacción, también con ayuda de la IA. Alguien que se une a la conversación más tarde usa la IA para resumir todo el intercambio antes de enviar otra respuesta. Y ahora tienes una conversación que, técnicamente, sigue avanzando, pero que se siente cada vez menos humana con cada repetición.

    ¿Quién está hablando con quién?

    Llegado ese punto, la idea de que los bots se envíen correos electrónicos entre sí ya no suena a broma. Herramientas especializadas como los asistentes de correo electrónico con IA y los bots de programación pueden ser útiles de forma aislada, pero siguen siendo parte del mismo problema. Herramientas como Ada de Read AI pueden gestionar la logística de las reuniones y participar en conversaciones de correo electrónico, lo que hace que todo el escenario de "IA hablando con IA" parezca mucho menos ridículo ahora.

    Todo empezó con gente que recurría a la IA para un correo electrónico aparentemente inofensivo, lo que rápidamente derivó en una cultura del correo electrónico cada vez más compleja y centrada en el rendimiento. Se suponía que nos liberaríamos de una de las tareas más agotadoras del trabajo digital. Y ahora parece que las nuevas tecnologías solo mantienen esa maquinaria en funcionamiento en lugar de eliminarla.

  • Apple acaba de encarecer el Mac mini sin subir su precio.

    Apple acaba de encarecer el Mac mini sin subir su precio.

    Apple ha retirado discretamente el Mac mini de 599 dólares, dejando el modelo de 256 GB fuera del mercado. En lugar de aumentar su precio para reflejar el alza de los costes de la memoria y la memoria NAND, la compañía simplemente lo eliminó de su catálogo, dejando a los compradores con un precio de entrada más elevado que antes.

    ¿Acaso Apple acaba de subir el precio del Mac mini sin llamarlo subida de precio?

    Desde que Apple retiró el modelo de 256 GB de su sitio web, el Mac mini más económico que se puede comprar ahora tiene un precio de $799, con un chip M4, 16 GB de RAM y 512 GB de almacenamiento. Apple no ha hecho una declaración oficial sobre el motivo, pero la razón es fácil de adivinar: rentabilidad. El aumento de los costos de la RAM y la memoria NAND ha encarecido la producción de dispositivos electrónicos de consumo y, en la mayoría de los casos, esos costos se han trasladado directamente a los clientes. Apple parece haber optado por un enfoque diferente, prefiriendo retirar discretamente el modelo menos rentable en lugar de aumentar su precio. Para contextualizar, el Mac mini de 512 GB se lanzó a $799 a finales de 2024.

    ¿Por qué es tan importante el Mac mini?

    El Mac mini con procesador M4 se ha convertido en uno de los ordenadores de Apple más fáciles de recomendar, ya que ofrece un rendimiento sólido en un formato compacto. Resulta atractivo para estudiantes, usuarios domésticos, programadores, creadores, oficinistas y cualquier persona que ya disponga de monitor, teclado y ratón. Para muchos compradores, fue la forma más económica de acceder al ecosistema Mac sin tener que comprar un MacBook o un iMac .

    Su popularidad ahora trasciende el uso básico de escritorio, ya que el CEO de Apple, Tim Cook, afirmó recientemente que la Mac mini y la Mac Studio son "plataformas increíbles para herramientas de IA y agentes", y la demanda ha crecido más rápido de lo que Apple esperaba. También confirmó que ambas máquinas podrían tardar varios meses en alcanzar un equilibrio entre la oferta y la demanda .

    La pregunta clave ahora es qué sucederá después. El aumento de los precios de la RAM y el almacenamiento podría obligar a Apple a reconsiderar si el Mac mini de 512 GB y 799 dólares podrá mantenerse en el mercado. Samsung advirtió recientemente que la escasez de memoria podría empeorar en 2027, con una demanda que supera la oferta. A medida que esta brecha se amplía, la desaparición del Mac mini de 599 dólares podría ser un indicio temprano de cómo esta crisis está transformando la gama de ordenadores de sobremesa y otros productos de Apple.

  • En ensayos realizados en Harvard, la IA acertó con los diagnósticos de emergencia mejor que los médicos.

    En ensayos realizados en Harvard, la IA acertó con los diagnósticos de emergencia mejor que los médicos.

    La IA tiene numerosos casos de uso complejos , pero la medicina de urgencias podría ser un ámbito donde realmente puede ser útil. Un estudio de Harvard que comparó el rendimiento de la IA con el de los médicos utilizando datos de pacientes de urgencias reveló que el modelo de razonamiento o1 de OpenAI superó a los médicos humanos en el diagnóstico de triaje de urgencias, especialmente en casos donde se debían tomar decisiones rápidamente con información limitada.

    ¿Qué reveló la prueba?

    Una parte del ensayo de Harvard incluyó a 76 pacientes que llegaron a la sala de emergencias de un hospital de Boston. Tanto el modelo de IA como dos médicos humanos recibieron el mismo historial clínico electrónico, que incluía detalles básicos como signos vitales, información demográfica y una breve nota escrita por una enfermera que explicaba el motivo de la visita del paciente.

    La IA logró identificar el diagnóstico exacto o casi exacto en el 67% de los casos. Mientras tanto, los médicos humanos obtuvieron entre un 50% y un 55%. En la segunda prueba, se proporcionó información más detallada, lo que elevó la precisión de la IA al 82%. Por otro lado, los médicos humanos obtuvieron entre un 70% y un 79%. Cabe destacar que esta diferencia no fue estadísticamente significativa.

    ¿Por qué todavía no se están reemplazando a los médicos?

    La premisa de este estudio se centra en el razonamiento médico basado en texto, y no en la realidad de la atención de urgencias. Los investigadores señalan que la IA no evaluó el malestar, la apariencia, el tono, el lenguaje corporal ni otras señales del paciente que los médicos utilizan en la sala de urgencias.

    El Dr. Adam Rodman, otro de los autores principales y médico del Centro Médico Beth Israel Deaconess de Boston, afirmó que la IA podría formar parte de un "modelo de atención triádica" que involucre al médico, al paciente y al sistema de IA.

    Si bien los resultados son impresionantes, la tecnología aún no está lista para implementarse en las salas de urgencias. Los expertos expresaron su preocupación por la responsabilidad, la seguridad del paciente, los errores de la IA y la posibilidad de que los médicos empiecen a confiar demasiado rápido en las recomendaciones de la IA. Por el momento, solo puede ofrecer una segunda opinión cuando los médicos la necesitan con urgencia.