Az Openai figyelemmel kíséri a helyzetet, de még nem aggódik
Facepalm: Ha a chatgpt-t nem használják a vírusos stúdió Ghibli-ihlette képek előállításához, amelyek elárasztják a hírcsatornákat, akkor inkább a bevételek hamisítványainak felhasználására. Az AI chatbot végül elég tisztességes a képeken belüli szövegek megértésében és generálásában, amelyekről a ravasz felhasználók rájöttek, hogy hamis nyugtákat eredményezhet. Ezek ezután könnyen átadhatják a vásárlás legitim bizonyítását egy gyanútlan szemkészletnek.
A közelmúltig az AI által generált képeknek egy szembeszökő gyengesége volt-a zaklatott vagy értelmetlen szöveg. Sok modellnek sikerült megoldania olyan problémákat, mint az összezavarodott kezek olyan pontig, ahol már nem is kérdés. A szöveg azonban egy kicsit Achilles sarkú maradt. Ez azonban gyorsan változik.
Például, a Chatgpt képtermelésének legfrissebb frissítését követve a 4O modelljén, a felhasználók csaknem tökéletes formázással, tételes listákkal és még reális megjelenésű logókkal is kiüríthetnek a nyugtákkal. Természetesen még mindig nem teljesen hibátlanok, és túlságosan ropogósnak tűnhetnek, furcsa távolságú szöveget tartalmazhatnak, sőt matematikai hibákkal is rendelkezhetnek.
Úgy gondolom, hogy az eredeti képen a betűk túl tökéletesek, és nem hajlanak a papírral. Úgy néznek ki, mint a papír fölött lebegve. Itt van a kísérletem, hogy realisztikusabbá tegyem. Mondja meg, mit gondol. pic.twitter.com/eixrshubey
– Michael Gofman (@michaelgofman) 2025. március 29.
A bevételek – különösen a kisebb összegek esetében – azonban nem gyakran túl erősen ellenőrzik. Néhány extra csípés a Photoshopban, például a foltok hozzáadása, könnyen becsaphatja a munkáltatót. A kifizetés nyilvánvaló a csalók számára. Csak annyit kellett volna tenniük, hogy csak néhány percet töltsenek a Chatgpt és a Photoshop használatával, és még ha a trükk is csak alkalmanként működik, ez még mindig alacsony erőfeszítésű, nagy jutalmazási rendszer.
Jelenleg a leghatékonyabb módszer lehet, ha egy meglévő nyugtát táplál a chatgpt -hez, és módosítsa a részleteket, például az árakat vagy a dátumokat. De amint a technika javul, a teljesen elkészített bevételek megkülönböztethetetlenné válhatnak a valóságtól.
Gondolod, hogy mindez riasztási harangokat csengetne az Openai HQ -nál, de bár a vállalat elismerte a kockázatot, még nem érinti a pánik gombot. A vállalat szóvivője elmagyarázta a TechRadarnak, hogy nyomon követi a képtermelést mind a platformon, mind a kifelé, a belső eszközöket használja az AI-által létrehozott tartalom ellenőrzésére, és cselekszik, amikor a használati politika megsértése bekövetkezik.
Érdekes módon az Openai szintén látja ezt a képességet. Taya Christianson szóvivője azt javasolta a TechCrunch -nak, hogy a hamis bevételeket felhasználhatják a pénzügyi írástudás oktatására azáltal, hogy megtanítják az embereknek a költségek nyomon követését vagy a csalások ellenőrzött környezetben történő megfigyelését.
Ennek ellenére el kell gondolni, hogy ez a képesség nettó pozitív eredményt eredményez -e a társadalom számára.