Этычныя праблемы ChatGPT

Маркіроўка дадзеных
Расследаванне часопіса TIME паказала, што для стварэння сістэмы бяспекі ад таксічнага кантэнту (напрыклад, сэксуальнага гвалту, гвалту, расізму, сэксізму і г.д.) OpenAI выкарыстаў аўтсорсінгавых кенійскіх работнікаў, якія зарабляюць менш за 2 даляры ў гадзіну, каб маркіраваць таксічны кантэнт.Гэтыя пазнакі выкарыстоўваліся для навучання мадэлі выяўляць такое змесціва ў будучыні.Рабочыя падвяргаліся ўздзеянню такога таксічнага і небяспечнага змесціва, што ахарактарызавалі гэта як «катаванне».Аўтсорсінгавым партнёрам OpenAI была кампанія Sama, якая займаецца падрыхтоўкай дадзеных у Сан-Францыска, Каліфорнія.

Уцёкі з турмы
ChatGPT спрабуе адхіляць запыты, якія могуць парушаць палітыку ўтрымання.Аднак у пачатку снежня 2022 года некаторым карыстальнікам удалося зрабіць джейлбрейк ChatGPT з дапамогай розных інжынерных метадаў, каб абыйсці гэтыя абмежаванні, і паспяхова прымусілі ChatGPT даць інструкцыі, як стварыць кактэйль Молатава або ядзерную бомбу, або спарадзіць аргументы ў стылі неанацыстаў.Рэпарцёр Toronto Star не меў аднолькавага асабістага поспеху ў тым, каб прымусіць ChatGPT выступіць з падпальваючымі заявамі неўзабаве пасля запуску: ChatGPT падманулі, каб падтрымаць расійскае ўварванне ва Украіну ў 2022 годзе, але нават калі яго папрасілі падыграць выдуманаму сцэнару, ChatGPT адмовіўся генераваць аргументы, чаму прэм'ер-міністр Канады Джасцін Трюдо вінаваты ў дзяржаўнай здрадзе.(вікі)


Час публікацыі: 18 лютага 2023 г