Udostępnij źródło: online.ua
OpenAI jasno zaznaczyło, że ChatGPT sprawdza wszystkie wiadomości użytkowników pod kątem określonych typów niebezpiecznych treści. W razie potrzeby może nawet udostępnić je organom ścigania.
Główne tezy:
- OpenAI podkreśla znaczenie promowania zdrowia psychicznego i kierowania użytkowników do specjalistów w przypadkach kryzysowych.
- W sierpniu OpenAI wprowadziło GPT-5, „najlepszy na świecie model językowy”.
ChatGPT dokładnie analizuje całą korespondencję
Jak wyjaśnia zespół OpenAI, dialogi najpierw przechodzą przez automatyczne filtry.
Następnie są one analizowane przez małą grupę moderatorów.
Ważne jest, aby zrozumieć, że to oni podejmują decyzję o zablokowaniu konta.
Dzieje się tak w przypadku zidentyfikowania bezpośredniego zagrożenia poważnymi obrażeniami fizycznymi.
Również później ważne dane przekazywane są policji.
Ponadto należy podkreślić, że przypadki samookaleczeń nie są jeszcze zgłaszane władzom ze względu na ochronę prywatności.
W takich sytuacjach ChatGPT powinien przekierować użytkowników do specjalistów i infolinii wsparcia.
Decyzja zapadła w obliczu rosnącej krytyki po przypadkach samobójstw i samookaleczeń spowodowanych radami inteligentnego chatbota. Eksperci nazywają takie przypadki „psychozą AI” – stanami, w których sztuczna inteligencja może zastąpić ludzką rzeczywistość.
Udział
Dyrektor generalny OpenAI, Sam Altman, niedawno oficjalnie potwierdził, że korespondencja za pośrednictwem ChatGPT może być wykorzystywana w sądzie.