2024.08.29. 06:00
Íme, néhány világos példa, hogy miként NE használjuk a ChatGPT-t
Pár napja kirúgtak egy marketingest, mert páratlan zöldségeket írt össze egy cikkben. Az eset rávilágít a ChatGPT működésével kapcsolatos, széles körben elterjedt félreértésre.
Forrás: Shutterstock
Innen nézve talán apróságnak tűnik, hogy pár napja egy Eddie Egan nevezetű szerzőt rövid úton elbocsátottak, mert mesterséges intelligencia-eszközt, konkrétan ChatGPT-t használt Francis Ford Coppola rendező Megalopolisz című filmje előzetesének értékeléséhez.
Szegény marketinges pedig nem tett egyebet, mint hogy a ChatGPT segítségével úgymond „kutatta” a kritikákat a filmelőzeteshez: az így készült írásmű azonban sajnos meg is jelent.
Mint a Deadline rámutat, a cikk tele van rendkívül kritikus idézetekkel a rendező korábbi munkáiról. Ami nem lenne baj, csak kiderült, hogy az idézett – és tényként említett – szövegeket soha senki nem írta le, hanem a mesterséges intelligencia találta ki.
Eddie Egan neves filmkritikusokat „idézett”, mint Pauline Kael a The New Yorkertől és Andrew Sarris a The Village Voice-tól, akik állítólag az olyan klasszikus darabokat, mint a Keresztapa, „öntörvényűnek”, az Apokalipszis most filmet pedig „kínos szemétnek” nevezték.
Viszont az említettek a valóságban soha nem írtak erről ilyen csípős véleményeket... Éppen ellenkezőleg, a neves kritikusok kifejezetten csodálták ezeket a filmeket. A Lionsgate elnézést kért a tévedésért, eltávolította az előzetest és kirúgta Egant.
Miért is baj, ha csupán a ChatGPT-vel fogalmaztatunk? Nem csak filmkritikát
Mert a mesterséges intelligencia modellek szavakat generálnak, nem tényeket.
Ez az eset jól mutatja, milyen könnyen lehet tévedni ChatGPT-vel és hozzá hasonló MI-rendszerekkel, ha nem értjük a hátterüket. Az ilyen eszközöket működtető, úgynevezett Large Language Models (LLM, nagy nyelvi modell) matematikai és nyelvi valószínűségek alapján állítja elő a mondatait, amelyeket a felhasználó utasításai befolyásolnak. Az eredményül kapott mondatok lehetnek nagyon pontosak, lehetnek bennük apró csacsiságok vagy teleálmodhatják blőd kitalációkkal – ezek a modellek nem rendelkeznek beépített tényellenőrző képességekkel. Ha mondjuk kritikus véleményeket kérünk tőlük, szívélyesen generálnak néhányat – ha akad olyan a valóságban, ha nem.
Nem a figyelmetlen marketinges az első: mások is bedőltek a chatbotok nyelvileg rendkívül logikusnak tűnő mondatainak.
Ismert eset Steven A. Schwartz ügyvédé, aki egy peres ügyben a ChatGPT-t bevetette kutatásra. Nem tudta, hogy az MI-rendszer hamis tartalmat generálhat (angol kifejezéssel: hallucinálhat), és az egyébként teljesen logikusnak tűnő érvelést elhitte.
Egy másik alkalommal ügyvédek a ChatGPT segítségével találtak és idéztek is a bíróságon olyan referenciaeseteket, amelyekről kiderült, hogy csupán a mesterséges intelligencia agyszüleményei. A bíró némi iróniával arra kérte őket, hogy inkább olvassanak „régimódi olvasmányokat”.
Sokan nem értik még a generatív mesterséges intelligencia működését. Ezek a példák arra figyelmeztetnek, hogy a ChatGPT (Bing, Gemini, Claude és társai) közléseit nem szabad további, gondos ellenőrzés nélkül használni.
Digitália
- Ennyi másodperc alatt lehet feltörni egy laza magyar felhasználó számítógépét
- Mi a teendő, ha a telefonját elveszti vagy ellopják?
- Hologram segítségével keresik a magyar szexmunkásnő gyilkosát (videó)
- Saját halálos mellrákját kezelte (sikeresen) egy tudós vírusterápiával
- A világ legkelendőbb telefonja: kitalálja, melyik az?