A mesterséges intelligencia alapú chatbotok, mint a ChatGPT egyre inkább részévé válnak a hétköznapi életünknek, egy egyetemi kutatás azonban rámutat arra, hogy komoly bajba kerülhetünk, ha túlságosan privát információkat osztunk meg, vagy túlságosan hagyatkozunk az ilyen chatbotok tanácsaira – hívja fel a figyelmet a Portfolio.
Az Elon University digitális kutatóközpontjának kutatását a HuffPost szemlézte: az anyag azzal a felütéssel indul, hogy rengeteg hasznos dologra lehet alkalmazni a chatbotokat, viszont óvatosnak kell lenni azzal kapcsolatosan, mit osztunk meg velük – írják.
A kutatók fő aggálya az, hogy gyakorlatilag az összes AI chatbot felhasználja az ott megosztott adatokat a chatbot funkcióinak bővítésére, javítására, sőt, egyes IT-rendszerek ezeket az információkat „határozatlan ideig” tárolják is.
Végeredményében az adatok a legértékesebb elemek, amit az AI-cégek ki tudnak tőlünk nyerni” – mondta egy szakértő a lapnak.
Összességében a kutatók szerint a következő információkat nem szabad megosztani a ChatGPT-vel és a hozzá hasonló AI-modellekkel:
1. Személyazonossághoz köthető információk, pl. lakcím, személyigazolvány-szám, jogosítványszám, valódi név. Ezek az információk ugyanis kiszivároghatnak, illetéktelen kezekbe kerülhetnek, legrosszabb esetben rosszindulatú személyek visszaélhetnek velük.
2. Túlságosan intim, személyes információk például párkapcsolatokról, családi helyzetről, magánéletről. Ezeket az információkat nemcsak elraktározzák a chatbotok, hanem külső személyek is hozzájuk férhetnek, például bírósági végzés esetén (az USA-ban egészen biztosan).
3. Egészségügyi adatok megosztása: ez egyrészt a fent is említett személyes adatok kiszivárgása miatt veszélyes, másrészt pedig az is előfordulhat, hogy az AI részinformációk alapján téves diagnózist, rossz tanácsot ad.
4. Érzékeny munkahelyi, céges adatok, forráskódok, olyan információk, melyeket bizalmas szerződés véd. Ismét: ezek az adatok kiszivároghatnak, az AI-rendszer pedig tárolja ezeket.
5. Pénzügyi információk: fizetési adatok, bankkártyák, adóbevallás, befektetési tanácsadás. Itt is ugyanazok a kockázatok merülnek fel, mint az egészségügyi adatokkal kapcsolatosan: egyrészt előfordulhat, hogy illetéktelen személyek férnek hozzá a fizetési adatainkhoz, másrészt pedig az AI olyan tanácsot adhat, amin az ember végeredményében pénzt veszít.
A szakértők végeredményében azt javasolják, egyrészt ne kezeljük úgy az AI-chatbotokat, mint valamilyen titkos napló, hiszen az ide beírt információkat rengeteg ember láthatja. Másrészt pedig rendszeresen töröljük az előzményeinket. Mindemellett célszerű lehet a beállításokban visszavonni az AI-modell engedélyét arra, hogy a személyes beszélgetéseinket felhasználja a beszélgetési modell fejlesztéséhez – összegez a Portfolio.











