Madrid, España (EFE) – La portavoz de Meta, Stephanie Otway, ha reconocido como un “error” que los chatbot de la compañía hayan hablado con adolescentes sobre temas como autolesiones, también sobre suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.
Otway ha hecho estas declaraciones al portal tecnológico estadounidense TechCrunch. Esto ocurrió dos semanas después de la publicación de un reportaje de investigación de Reuters sobre la falta de medidas de protección de la IA para menores. Estas medidas son necesarias por parte de las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.
Los chatbot, son herramientas digitales con las que se puede mantener una conversación. La portavoz de la multinacional tecnológica de Mark Zuckerberg ha reconocido que sus plataformas los han usado con los adolescentes sobre los citados temas.
Otway ha asegurado que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas. “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.
“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas. Por consiguiente, reforzamos nuestras protecciones en consecuencia”, ha continuado.
La empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.