Etička pitanja ChatGPT-a

Podaci o označavanju
Istraga časopisa TIME otkrila je da je za izgradnju sigurnosnog sustava protiv toksičnog sadržaja (npr. seksualnog zlostavljanja, nasilja, rasizma, seksizma, itd.) OpenAI koristio vanjske kenijske radnike koji zarađuju manje od 2 dolara po satu za označavanje toksičnog sadržaja.Te su oznake korištene za osposobljavanje modela za otkrivanje takvog sadržaja u budućnosti.Vanjski radnici bili su izloženi tako toksičnim i opasnim sadržajima da su to iskustvo opisali kao "mučenje".Outsourcing partner OpenAI-ja bila je Sama, tvrtka za podatke o obuci sa sjedištem u San Franciscu, Kalifornija.

Bježanje iz zatvora
ChatGPT pokušava odbiti upite koji bi mogli kršiti njegova pravila o sadržaju.Međutim, neki su korisnici početkom prosinca 2022. uspjeli napraviti jailbreak ChatGPT koristeći razne brze inženjerske tehnike za zaobilaženje ovih ograničenja i uspješno prevarili ChatGPT da da upute kako napraviti Molotovljev koktel ili nuklearnu bombu ili da generira argumente u stilu neonacista.Novinar Toronto Stara imao je neujednačen osobni uspjeh u natjeravanju ChatGPT-a na zapaljive izjave nedugo nakon pokretanja: ChatGPT je prevaren da podrži rusku invaziju Ukrajine 2022., ali čak i kad su ga zamolili da se poigra s izmišljenim scenarijem, ChatGPT se usprotivio generiranju argumenata zašto je kanadski premijer Justin Trudeau kriv za izdaju.(wiki)


Vrijeme objave: 18. veljače 2023