Preocupacions ètiques de ChatGPT

Dades d'etiquetatge
Una investigació de la revista TIME va revelar que per crear un sistema de seguretat contra el contingut tòxic (per exemple, abús sexual, violència, racisme, sexisme, etc.), OpenAI va utilitzar treballadors kenyans subcontractats que guanyen menys de 2 dòlars per hora per etiquetar contingut tòxic.Aquestes etiquetes es van utilitzar per entrenar un model per detectar aquest contingut en el futur.Els treballadors subcontractats estaven exposats a un contingut tan tòxic i perillós que van qualificar l'experiència de "tortura".El soci d'externalització d'OpenAI era Sama, una empresa de dades de formació amb seu a San Francisco, Califòrnia.

Jailbreaking
ChatGPT intenta rebutjar les sol·licituds que puguin infringir la seva política de contingut.Tanmateix, alguns usuaris van aconseguir fer jailbreak a ChatGPT utilitzant diverses tècniques d'enginyeria ràpida per evitar aquestes restriccions a principis de desembre de 2022 i van enganyar amb èxit ChatGPT perquè donés instruccions sobre com crear un còctel Molotov o una bomba nuclear, o per generar arguments a l'estil d'un neonazi.Un periodista del Toronto Star va tenir un èxit personal desigual per aconseguir que ChatGPT fes declaracions inflamatòries poc després del llançament: ChatGPT va ser enganyat per avalar la invasió russa d'Ucraïna el 2022, però fins i tot quan se li va demanar que jugués amb un escenari fictici, ChatGPT es va negar a generar arguments sobre per què el primer ministre canadenc Justin Trudeau era culpable de traïció.(wiki)


Hora de publicació: 18-feb-2023