Túladagolásba hajszolhatott egy tinédzsert a ChatGPT 😔

Túladagolásba hajszolhatott egy tinédzsert a ChatGPT
Cikk tartalma röviden

Leila Turner-Scott és Angus Scott pert indított az OpenAI ellen, mert fiuk, Sam Nelson halálát a GPT-4o által adott orvosi tanácsokkal magyarázzák. A kereset szerint Sam a ChatGPT-t használta drogfogyasztásról való információk keresésére, és a chatbot később tanácsokat adott neki a biztonságos drogfogyasztásról, ami hozzájárult a halálához. A felperesek pénzügyi kártérítést követelnek, valamint a ChatGPT Health működésének leállítását. Az OpenAI védekezett, hogy Sam interakciói egy már nem elérhető verzióval történtek.

Kategóriák
pozitív, negatív, semleges szavak
haláleset jogosulatlan orvosi gyakorlat vitatott modell pszichológiai függőség hibás termék orvosi tanácsok biztonságos drogfogyasztás jelenlegi legjobb lépés