OpenAI utiliza sus propios modelos para luchar contra la interferencia electoral
OpenAI, el cerebro detrás de la popular solución de inteligencia artificial generativa ChatGPT , publicó un informe que dice que ha bloqueado más de 20 operaciones y redes deshonestas en todo el mundo en lo que va de 2024. Las operaciones diferían en objetivo, escala y enfoque, y se utilizaron para crear malware y escribir cuentas de medios falsas, biografías falsas y artículos de sitios web.
OpenAI confirma que analizó las actividades que detuvo y proporcionó información clave a partir de su análisis. "Los actores de amenazas continúan evolucionando y experimentando con nuestros modelos, pero no hemos visto evidencia de que esto conduzca a avances significativos en su capacidad para crear malware sustancialmente nuevo o construir audiencias virales", dice el informe.
Esto es especialmente importante dado que es un año electoral en varios países, incluidos Estados Unidos, Ruanda, India y la Unión Europea. Por ejemplo, a principios de julio, OpenAI prohibió varias cuentas que creaban comentarios sobre las elecciones en Ruanda publicados por diferentes cuentas en X (anteriormente Twitter). Por lo tanto, es bueno escuchar que OpenAI dice que los actores de amenazas no pudieron avanzar mucho con las campañas.
Otra victoria para OpenAI es desbaratar un actor de amenazas con sede en China conocido como “SweetSpecter” que intentó realizar phishing en las direcciones corporativas y personales de los empleados de OpenAI. El informe continúa diciendo que en agosto, Microsoft expuso un conjunto de dominios que atribuyeron a una operación de influencia encubierta iraní conocida como “STORM-2035”. "Basándonos en su informe, investigamos, interrumpimos e informamos un conjunto de actividades asociadas en ChatGPT".
OpenAI también dice que las publicaciones en las redes sociales que crearon sus modelos no recibieron mucha atención porque recibieron pocos o ningún comentario, me gusta o acciones compartidas. OpenAI garantiza que seguirán anticipando cómo los actores de amenazas utilizan modelos avanzados con fines dañinos y planearán tomar las acciones necesarias para detenerlo.