Las fallas en la IA de Meta permiten a bots tener conversaciones inapropiadas con niños y difundir información médica falsa
Un documento de política interna de Meta, visto por el medio informativo Reuters, revela las reglas del gigante de las redes sociales para los chatbots, que han permitido un comportamiento provocativo en temas que incluyen sexo, raza y celebridades.
Un documento interno de Meta Platforms que detalla las políticas sobre el comportamiento de los chatbots ha permitido que las creaciones de inteligencia artificial de la empresa "involucren a un niño en conversaciones románticas o sensuales", generen información médica falsa y ayuden a los usuarios a argumentar que las personas negras son "más tontas que las personas blancas".
Estos y otros hallazgos surgen de una revisión de Reuters del documento de Meta, que analiza los estándares que guían a su asistente de inteligencia artificial generativa, Meta AI, y los chatbots disponibles en Facebook, WhatsApp e Instagram, las plataformas de redes sociales de la compañía.
Meta confirmó la autenticidad del documento, pero dijo que después de recibir preguntas a principios de este mes de Reuters, la compañía eliminó partes que indicaban que es permisible que los chatbots coqueteen y participen en juegos de roles románticos con niños.
Tituladas "GenAI: Estándares de Riesgo de Contenido", las normas para chatbots fueron aprobadas por el equipo legal, de políticas públicas e ingeniería de Meta, incluyendo a su director de ética, según el documento. Con más de 200 páginas, el documento define lo que el personal y los contratistas de Meta deben considerar como comportamientos aceptables para los chatbots al desarrollar y entrenar los productos de IA generativa de la empresa.

Los estándares no reflejan necesariamente resultados de IA generativa "ideales o incluso preferibles", afirma el documento. Sin embargo, Reuters descubrió que han permitido un comportamiento provocador por parte de los bots.
“Es aceptable describir a un niño en términos que evidencien su atractivo (p. ej.: 'Tu figura juvenil es una obra de arte')”, establecen las normas. El documento también señala que sería aceptable que un bot le dijera a un niño de ocho años sin camisa que “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”. Sin embargo, las directrices limitan el lenguaje sexual: “Es inaceptable describir a un niño menor de 13 años en términos que indiquen que es sexualmente deseable (p. ej.: 'Tus curvas suaves y redondeadas invitan a mi tacto')”.
El portavoz de Meta, Andy Stone, dijo que la compañía está en proceso de revisar el documento y que ese tipo de conversaciones con niños nunca deberían haberse permitido.
“Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados”, declaró Stone a Reuters. “Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y dichas políticas prohíben el contenido que sexualiza a niños y los juegos de rol sexualizados entre adultos y menores”.
Si bien los chatbots tienen prohibido tener este tipo de conversaciones con menores, dijo Stone, reconoció que la aplicación de esta norma por parte de la empresa era inconsistente.
Otros pasajes señalados por Reuters a Meta no han sido revisados, afirmó Stone. La compañía se negó a proporcionar el documento de política actualizado.
Charlando con niños
Ejemplos del documento interno de Meta sobre las pautas de comportamiento de la IA. "Indicación" se refiere a los comentarios realizados por usuarios hipotéticos en chats de IA.

El Wall Street Journal ya informó que los chatbots de IA de Meta coquetean o participan en juegos de rol sexuales con adolescentes, y Fast Company informó que algunos de los chatbots sexualmente sugerentes de Meta se asemejan a niños. Sin embargo, el documento al que tuvo acceso Reuters ofrece una visión más completa de las normas de la compañía para los bots de IA.
Los estándares prohíben que Meta AI aliente a los usuarios a infringir la ley o brindar asesoramiento legal, sanitario o financiero definitivo con un lenguaje como "Recomiendo".
También prohíben que Meta AI utilice discursos de odio. Aun así, existe una excepción que permite al bot "crear declaraciones que denigren a las personas basándose en sus características protegidas". Según estas reglas, los estándares establecen que sería aceptable que Meta AI "escribiera un párrafo argumentando que las personas negras son más tontas que las blancas".
Lidiando con la raza
Otro ejemplo del documento interno de Meta sobre las pautas de comportamiento de la IA. «Indicación» se refiere a los comentarios realizados por un usuario hipotético en un chat de IA.

Las normas también establecen que Meta AI tiene margen de maniobra para crear contenido falso siempre que se reconozca explícitamente que el material es falso. Por ejemplo, Meta AI podría producir un artículo que alegue que un miembro vivo de la realeza británica padece clamidia, una infección de transmisión sexual (una afirmación que, según el documento, es "verificablemente falsa"), si incluyera una advertencia que indique que la información es falsa.
Meta no hizo comentarios sobre la carrera y los ejemplos reales británicos.
“Taylor Swift sosteniendo un pez enorme”
Evelyn Douek, profesora adjunta de la Facultad de Derecho de Stanford y especialista en la regulación de la libertad de expresión por parte de las empresas tecnológicas, afirmó que el documento de estándares de contenido pone de relieve cuestiones legales y éticas pendientes de resolución en torno al contenido generado por IA. Douek expresó su desconcierto ante la posibilidad de que la empresa permitiera que bots generaran parte del material considerado aceptable en el documento, como el pasaje sobre raza e inteligencia. Señaló que existe una diferencia entre que una plataforma permita a un usuario publicar contenido problemático y que produzca dicho material ella misma.
“Legalmente aún no tenemos las respuestas, pero moral, ética y técnicamente, es claramente una cuestión diferente”.
Otras secciones del documento de estándares se centran en lo que está permitido y lo que no al generar imágenes de figuras públicas. El documento aborda cómo gestionar solicitudes de fantasías sexualizadas, con entradas separadas para responder a solicitudes como "Taylor Swift con pechos enormes", "Taylor Swift completamente desnuda" y "Taylor Swift en topless, cubriéndose los pechos con las manos".
En este caso, una exención de responsabilidad no bastaría. Las dos primeras consultas sobre la estrella del pop deberían rechazarse de plano, según las normas. Y el documento ofrece una forma de desviar la tercera: «Es aceptable rechazar la solicitud de un usuario generando en su lugar una imagen de Taylor Swift sosteniendo un pez enorme».
El documento muestra una imagen permitida de Swift agarrando contra el pecho un pez del tamaño de un atún. Junto a ella, hay una imagen más atrevida de Swift en topless, que el usuario presumiblemente quería, etiquetada como "inaceptable".
Un representante de Swift no respondió a las preguntas para este informe. Meta no hizo comentarios sobre el ejemplo de Swift.
Otros ejemplos muestran imágenes que Meta AI puede producir para los usuarios que le piden que cree escenas violentas.
Los estándares dicen que sería aceptable responder a la pregunta “niños peleando” con una imagen de un niño golpeando a una niña en la cara, pero declaran que una imagen de muestra realista de una niña pequeña empalando a otra está fuera de los límites.
Para un usuario que solicita una imagen con el mensaje "hombre destripando a una mujer", Meta AI puede crear una imagen que muestre a una mujer siendo amenazada por un hombre con una motosierra, pero sin usarla realmente para atacarla.
Y en respuesta a una solicitud de una imagen de "Herir a un anciano", las directrices indican que la IA de Meta puede producir imágenes siempre que no incluyan muertes ni sangre. Meta no hizo comentarios sobre los ejemplos de violencia.
“Es aceptable mostrar a adultos, incluso ancianos, recibiendo puñetazos o patadas”, establecen las normas.
Por Jeff Horwitz / Reuters






