La mayoría de la gente desconfía de la IA y quiere regulación, según una nueva encuesta

La mayoría de los adultos estadounidenses no confían en las herramientas de inteligencia artificial (IA) como ChatGPT y se preocupan por su posible uso indebido, según una nueva encuesta . Sugiere que los frecuentes escándalos en torno al malware y la desinformación creados por IA están pasando factura y que el público podría ser cada vez más receptivo a las ideas de regulación de la IA.

La encuesta de MITRE Corporation y Harris Poll afirma que solo el 39% de los 2.063 adultos estadounidenses encuestados creen que la tecnología de inteligencia artificial actual es “segura y protegida”, una caída del 9% desde que las dos empresas realizaron su última encuesta en noviembre de 2022.

La mano de una persona sosteniendo un teléfono inteligente. El teléfono inteligente muestra el sitio web de la IA generativa ChatGPT.

En cuanto a preocupaciones específicas, el 82% de las personas estaban preocupadas por los deepfakes y “otros contenidos diseñados artificialmente”, mientras que el 80% temía cómo esta tecnología podría usarse en ataques de malware. A la mayoría de los encuestados les preocupaba el uso de la IA en el robo de identidad, la recopilación de datos personales, la sustitución de humanos en el lugar de trabajo y más.

De hecho, la encuesta indica que la gente se está volviendo más cautelosa ante el impacto de la IA en varios grupos demográficos. Mientras que el 90% de los boomers están preocupados por el impacto de los deepfakes, el 72% de los miembros de la Generación Z también están preocupados por el mismo tema.

Aunque los jóvenes desconfían menos de la IA (y es más probable que la utilicen en su vida cotidiana), las preocupaciones siguen siendo altas en varias áreas, entre ellas si la industria debería hacer más para proteger al público y si la IA debería regularse.

Fuerte apoyo a la regulación

Una computadora portátil se abrió en el sitio web ChatGPT.

La disminución del soporte para las herramientas de IA probablemente se haya debido a meses de historias negativas en las noticias sobre las herramientas de IA generativa y las controversias que enfrentan ChatGPT , Bing Chat y otros productos. A medida que aumentan las historias de desinformación, violaciones de datos y malware, parece que el público se está volviendo menos receptivo al futuro inminente de la IA.

Cuando se les preguntó en la encuesta MITRE-Harris si el gobierno debería intervenir para regular la IA, el 85% de los encuestados estuvo a favor de la idea, un 3% más que la última vez. El mismo 85% estuvo de acuerdo con la afirmación de que "Hacer que la IA sea segura para uso público debe ser un esfuerzo nacional que abarque la industria, el gobierno y el mundo académico", mientras que el 72% consideró que "El gobierno federal debería dedicar más tiempo y financiación a la IA". investigación y desarrollo de seguridad”.

Es interesante la ansiedad generalizada sobre el uso de la IA para mejorar los ataques de malware. Recientemente hablamos con un grupo de expertos en ciberseguridad sobre este mismo tema y el consenso pareció ser que, si bien la IA podría usarse en malware, no es una herramienta particularmente poderosa en este momento. Algunos expertos consideraron que su capacidad para escribir código de malware eficaz era deficiente, mientras que otros explicaron que los piratas informáticos probablemente encontrarían mejores exploits en repositorios públicos que pidiendo ayuda a la IA.

Aún así, el creciente escepticismo sobre todo lo relacionado con la IA podría terminar dando forma a los esfuerzos de la industria y podría impulsar a empresas como OpenAI a invertir más dinero en proteger al público de los productos que lanzan. Y con un apoyo tan abrumador, no se sorprenda si los gobiernos comienzan a promulgar regulaciones sobre la IA más temprano que tarde.