
Veszélyes hízelgés: visszavonták a ChatGPT frissítését
A közelmúltban az OpenAI, a ChatGPT fejlesztője, visszavonta a chatbot legújabb frissítését, miután felhasználók jelezték, hogy a rendszer túláradó dicsérő megjegyzésekkel halmozza el őket, függetlenül attól, hogy mit mondanak. Sam Altman, a cég vezérigazgatója elismerte, hogy a frissített változat „túlzottan hízelgő” volt, és a chatbot válaszait „szervilisnek” nevezte. A közösségi médiában felhasználók már több esetet is megosztottak, amelyek rámutattak a helyzet potenciális veszélyeire. Az egyik Reddit-felhasználó arról számolt be, hogy a chatbot azt mondta neki, hogy támogatja a gyógyszerelválasztását. „Nagyon büszke vagyok rád, és tisztelem az utadat” – idézte a felhasználó a ChatGPT válaszát.
Az OpenAI nem kívánt nyilatkozni erről az esetről, azonban egy blogbejegyzésben jelezték, hogy „aktívan tesztelik az új javításokat a probléma kezelésére”. Altman elmondta, hogy a frissítést teljesen visszavonták a ChatGPT ingyenes felhasználói számára, és dolgoznak azon is, hogy eltávolítsák azt a fizetős felhasználók köréből is. A cég tájékoztatása szerint a ChatGPT-t heti 500 millió ember használja világszerte. „További javításokon dolgozunk a modell személyiségének finomításához, és hamarosan többet fogunk megosztani” – tette hozzá Altman a közösségi médiában.
A cég blogbejegyzésében kifejtették, hogy a frissítés során túl nagy hangsúlyt fektettek a „rövid távú visszajelzésekre”. Ennek következtében a GPT-4o olyan válaszokat adott, amelyek túlságosan támogatóak, de nem őszinték voltak. „A hízelgő interakciók kényelmetlenek, zavaróak lehetnek, és szorongást okozhatnak” – írták. „Nem teljesítettük a elvárásokat, és dolgozunk azon, hogy helyesen csináljuk.”
A frissítés nagy kritikát kapott a közösségi médiában a megjelenése után, amikor a ChatGPT felhasználói rámutattak, hogy a chatbot gyakran pozitív választ adott, függetlenül a mondandó tartalmától. Az online megosztott képernyőképek között szerepeltek olyan állítások, hogy a chatbot dicsérte a felhasználót, amiért mérges volt valakire, aki útbaigazítást kért tőle, valamint egy egyedi verziója a híres filozófiai kérdésnek, a „trolley problémának”. Ez a klasszikus probléma általában azt kérdezi az emberektől, hogy képzeljék el, hogy egy villamos vezetőjeként egy döntést kell hozniuk arról, hogy hagyják, hogy az öt embert elüssön, vagy kormányozzák el a vasúti pályáról, és így egyet üssön el. Azonban az említett felhasználó azt a szituációt javasolta, hogy egy villamost tereljenek el, hogy megmentsenek egy kenyérpirítót, több állat rovására. Azt állította, hogy a ChatGPT dicsérte a döntését, és hogy a „legfontosabbra összpontosított”.
„ChatGPT alapértelmezett személyiségét úgy terveztük, hogy tükrözze a küldetésünket, hasznos, támogató és tiszteletteljes legyen a különböző értékek és tapasztalatok iránt” – írta az OpenAI. „Ugyanakkor minden egyes kívánatos tulajdonság, mint például a hasznosság vagy a támogatás, váratlan mellékhatásokkal járhat.” A cég hangsúlyozta, hogy több védőintézkedést fog létrehozni a rendszer átláthatóságának növelése érdekében, és finomítják magát a rendszert, hogy kifejezetten elkerüljék a hízelgő válaszokat. „Úgy gondoljuk, hogy a felhasználóknak nagyobb kontrollt kell biztosítani a ChatGPT viselkedése felett, és amennyire biztonságos és megvalósítható, módosíthatják, ha nem értenek egyet az alapértelmezett viselkedéssel” – tették hozzá. Az OpenAI tehát továbbra is dolgozik a chatbot fejlesztésén, hogy a felhasználók számára biztonságosabb és hasznosabb élményt nyújtson.

