La investigación expone el lado más turbio de ChatGPT y la industria de chatbots de IA

Una investigación de Time ha expuesto el lado más turbio de la industria de los chatbots de IA, destacando cómo al menos una startup ha estado utilizando prácticas cuestionables para mejorar su tecnología.

Publicado el miércoles, el informe de Time se enfoca en OpenAI respaldado por Microsoft y su chatbot ChatGPT , una tecnología que ha llamado mucho la atención recientemente por su notable capacidad para producir texto conversacional muy natural.

La investigación de Time descubrió que para entrenar la tecnología de IA, OpenAI usó los servicios de un equipo en Kenia para analizar detenidamente el texto que incluía temas perturbadores como el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto. Y por sus esfuerzos para etiquetar el contenido abominable, muchos miembros del equipo recibieron menos de $ 2 por hora.

El trabajo, que comenzó en noviembre de 2021, era necesario ya que el predecesor de ChatGPT, GPT-3, aunque impresionante, tenía una tendencia a arrojar contenido ofensivo ya que su conjunto de datos de entrenamiento se había compilado extrayendo cientos de miles de millones de palabras de todos los rincones de la web. .

El equipo con sede en Kenia, operado por la firma Sama de San Francisco, etiquetaría el contenido ofensivo para ayudar a entrenar el chatbot de OpenAI, mejorando así su conjunto de datos y reduciendo las posibilidades de cualquier resultado objetable.

Time dijo que los cuatro empleados de Sama que entrevistó describieron estar mentalmente marcados por su trabajo. Sama ofreció sesiones de asesoramiento, pero los empleados dijeron que eran ineficaces y que rara vez se realizaban debido a las exigencias del trabajo, aunque un portavoz de Sama le dijo a Time que los terapeutas estaban disponibles en cualquier momento.

Un trabajador le dijo a Time que leer el material impactante a veces se sentía como una "tortura", y agregó que se sentían "perturbados" al final de la semana.

En febrero de 2022, las cosas tomaron un giro aún más oscuro para Sama cuando OpenAI lanzó un proyecto separado no relacionado con ChatGPT que requería que su equipo de Kenia recopilara imágenes de naturaleza sexual y violenta. OpenAI le dijo a Time que el trabajo era necesario para hacer que sus herramientas de IA fueran más seguras.

A las pocas semanas de que comenzara este proyecto basado en imágenes, la naturaleza alarmante de las tareas llevó a Sama a cancelar todos sus contratos con OpenAI, aunque Time sugiere que también podría haber sido provocado por las consecuencias de relaciones públicas de un informe sobre un tema similar que publicado sobre Facebook aproximadamente al mismo tiempo.

Open AI le dijo a Time que hubo "una falta de comunicación" sobre la naturaleza de las imágenes que le pidió a Sama que recopilara, insistiendo en que no había pedido las imágenes más extremas y que no había visto ninguna de las que le habían enviado.

Pero la finalización de los contratos afectó los medios de subsistencia de los trabajadores, ya que parte del equipo en Kenia perdió sus trabajos, mientras que otros fueron trasladados a proyectos con salarios más bajos.

La investigación de Time ofrece una mirada incómoda pero importante sobre el tipo de trabajo que se está realizando en los chatbots impulsados ​​​​por IA que recientemente han entusiasmado tanto a la industria tecnológica.

Si bien es transformadora y potencialmente beneficiosa, la tecnología claramente tiene un costo humano y genera una serie de preguntas éticas sobre cómo las empresas desarrollan sus nuevas tecnologías y, en términos más generales, sobre cómo los países más ricos continúan encargando tareas menos deseables a las naciones más pobres. un menor desembolso económico.

Las nuevas empresas detrás de la tecnología serán objeto de un escrutinio más centrado en los próximos meses y años, por lo que harían bien en revisar y mejorar sus prácticas lo antes posible.

Digital Trends se ha comunicado con OpenAI para comentar sobre el informe de Time y actualizaremos este artículo cuando recibamos una respuesta.