Problemas éticos de ChatGPT

Datos de etiquetado
Unha investigación da revista TIME revelou que para construír un sistema de seguridade contra contidos tóxicos (por exemplo, abusos sexuais, violencia, racismo, sexismo, etc.), OpenAI utilizou traballadores kenianos subcontratados que gañaban menos de 2 dólares por hora para etiquetar contidos tóxicos.Estas etiquetas utilizáronse para adestrar un modelo para detectar ese contido no futuro.Os traballadores subcontratados foron expostos a un contido tan tóxico e perigoso que cualificaron a experiencia de "tortura".O socio de outsourcing de OpenAI foi Sama, unha empresa de datos de formación con sede en San Francisco, California.

Jailbreaking
ChatGPT tenta rexeitar as solicitudes que poidan infrinxir a súa política de contido.Non obstante, algúns usuarios conseguiron liberar a ChatGPT mediante varias técnicas de enxeñería rápidas para evitar estas restricións a principios de decembro de 2022 e enganaron con éxito a ChatGPT para que dese instrucións sobre como crear un cóctel molotov ou unha bomba nuclear, ou para xerar argumentos ao estilo dun neonazi.Un xornalista do Toronto Star tivo un éxito persoal desigual ao conseguir que ChatGPT fixera declaracións inflamatorias pouco despois do lanzamento: ChatGPT foi enganado para apoiar a invasión rusa de Ucraína en 2022, pero mesmo cando se lle pediron que xogara cun escenario ficticio, ChatGPT resistiu a xerar argumentos sobre por que o primeiro ministro canadense Justin Trudeau foi culpable de traizón.(wiki)


Hora de publicación: 18-feb-2023