TikTok comienza a etiquetar videos de conducción autónoma como peligrosos
Sí, existen hashtags de "conducción autónoma" y "sin conductor" en TikTok, y contienen exactamente lo que podría pensar: vídeos de personas que utilizan la función de conducción autónoma de su Tesla mientras hacen cualquier cosa menos concentrarse en la carretera.
Para disuadir a otros usuarios de abusar de la función de conducción autónoma, TikTok ha decidido poner una etiqueta de advertencia en este tipo de videos.
TikTok intenta acabar con la tendencia de conducción autónoma
En un Tweet descubierto por primera vez por The Next Web , un usuario notó una nueva etiqueta debajo de un video de conducción autónoma en TikTok. La etiqueta dice: "Las acciones en este video podrían resultar en lesiones graves o efectos adversos para la salud".
TikTok muestra que se preocupa más por la vida humana que Elon Musk al etiquetar los videos de Autopilot con una declaración de que es posible que se produzcan lesiones graves al tomar las medidas que se muestran en el video. pic.twitter.com/livGjC5haF
– Keubiko (@Keubiko) 26 de mayo de 2021
A pesar de esto, todavía hay toneladas de videos peligrosos de conducción autónoma en TikTok que no tienen esta etiqueta. Esto incluye videos de personas que usan el piloto automático mientras están en el asiento trasero de sus Teslas, así como videos de personas que comen su almuerzo mientras "conducen". Es posible que TikTok no pueda capturar todos los videos peligrosos, pero probablemente necesitará medidas aún más estrictas para contrarrestar esta tendencia.
Las Pautas de la comunidad de TikTok establecen claramente que la plataforma no permite a los usuarios "compartir contenido que los muestre participando o alentando a otros a participar en actividades peligrosas que pueden provocar lesiones graves o la muerte". Teniendo esto en cuenta, ¿una etiqueta simple es realmente suficiente para evitar que los usuarios publiquen videos peligrosos de conducción autónoma?
En la página de soporte de Tesla , la compañía afirma que los propietarios de Tesla todavía tienen que "prestar atención" cuando utilizan la función de conducción autónoma. Los conductores también deben aceptar mantener las manos en el volante y mantener el control del automóvil antes de encender el piloto automático.
Advertencias como estas solo pueden hacer mucho, desafortunadamente, ya que las personas inevitablemente seguirán intentando abusar de la función de piloto automático. El 5 de mayo de 2021, un hombre murió en un accidente mientras usaba la función de piloto automático de Tesla. Según un informe de Reuters , el conductor publicaba con frecuencia videos de "conducción autónoma" en TikTok.
Si TikTok continúa permitiendo que los usuarios publiquen videos "divertidos" de ellos usando la función de piloto automático mientras están distraídos, es probable que más personas quieran hacer lo mismo, lo que resultará en más muertes y lesiones innecesarias.
Tanto TikTok como Tesla deben condenar el abuso del piloto automático
Al final, corresponde a Tesla y TikTok condenar la conducción autónoma distraída. Esto significa que Tesla debe dificultar el uso de la función de piloto automático mientras está distraído, y TikTok debería eliminar por completo los videos peligrosos de conducción autónoma. Hasta entonces, es probable que sigamos viendo más lesiones y muertes relacionadas con el abuso de la función de piloto automático.