Etiquetado de datos
Una investigación de la revista TIME reveló que para construir un sistema de seguridad contra el contenido tóxico (p. ej., abuso sexual, violencia, racismo, sexismo, etc.), OpenAI utilizó trabajadores kenianos subcontratados que ganaban menos de $2 por hora para etiquetar el contenido tóxico.Estas etiquetas se usaron para entrenar un modelo para detectar dicho contenido en el futuro.Los trabajadores subcontratados estuvieron expuestos a contenidos tan tóxicos y peligrosos que calificaron la experiencia como “tortura”.El socio externo de OpenAI era Sama, una empresa de datos de capacitación con sede en San Francisco, California.
Jailbreak
ChatGPT intenta rechazar mensajes que puedan violar su política de contenido.Sin embargo, algunos usuarios lograron hacer jailbreak a ChatGPT mediante el uso de varias técnicas de ingeniería rápida para eludir estas restricciones a principios de diciembre de 2022 y engañaron con éxito a ChatGPT para que les diera instrucciones sobre cómo crear un cóctel molotov o una bomba nuclear, o generar argumentos al estilo de un neonazi.Un reportero de Toronto Star tuvo un éxito personal desigual al lograr que ChatGPT hiciera declaraciones incendiarias poco después del lanzamiento: ChatGPT fue engañado para respaldar la invasión rusa de Ucrania en 2022, pero incluso cuando se le pidió que siguiera el juego con un escenario ficticio, ChatGPT se negó a generar argumentos de por qué el primer ministro canadiense, Justin Trudeau, era culpable de traición.(wiki)
Hora de publicación: 18 de febrero de 2023