A ChatGPT berobbanásával tömegek számára vált beszélgetőpartnerré és 2023 legfontosabb beszédtémájává a mesterséges intelligencia. Az MI használata által felvetett etikai és jogi kérdések ezzel párhuzamosan hirtelen a szakmai diskurzusokból a közbeszédbe kerültek át. A jogi aggályok közül elsőként az adatvédelmi kifogások értek célba. Az olasz adatvédelmi hatóság 2023 március végén azonnali hatállyal megszüntette a ChatGPT használatát. A hivatalból indított hatósági eljárás végül 15 millió eurós bírsággal és hat hónapos edukációs kampány előírásával zárult.
Milyen adatvédelmi problémákat rejt a mesterséges intelligencia általában? Mi volt az olasz adatvédelmi hatóság aggálya a ChatGPT-vel és milyen követelményeket kellett teljesítenie a reaktiváláshoz? Blogcikkemben ezeket a kérdéseket járom körül, a lehető legközérthetőbb formában.
Mi a mesterséges intelligencia?
A mesterséges intelligencia (MI) egy gép, program vagy mesterségesen létrehozott tudat által megnyilvánuló intelligencia. A gépek emberhez hasonló képességeit jelenti, mint például az érvelés, a tanulás, a tervezés és a kreativitás.
Lehetővé teszi a technika számára, hogy érzékelje környezetét, foglalkozzon azzal, amit észlel, problémákat oldjon meg és konkrét cél elérése érdekében tervezze meg lépéseit.
Maga a fogalom John McCarthy nevéhez köthető, aki így határozta meg: „A mesterséges intelligencia az intelligens gépek gyártásának tudománya és mérnöki gyakorlata.”
A mesterséges intelligencia rövid története[1]
Az MI kutatása 1956-ban kezdődött az amerikai Dartmouth College egyik nyári workshopján. Úgy gondolták, tíz tudós két hónap munkával le tudja fektetni egy olyan masina alapjait, amely képes
- nyelvhasználatra,
- elvont fogalmak kezelésére,
- olyan problémák megoldására, amelyek addig kizárólag embereknek sikerültek, illetve
- önmaga tökéletesítésére.
Az első kulcsfontosságú lépéseket ők tették meg, még ha az optimizmusok túlzottnak is bizonyult.
Az 1980-as években John Hopfield és David Rumelhart népszerűsítette a mély tanulási (deep learning) technikákat, amelyek lehetővé tették a számítógépek számára, hogy a tapasztalatok felhasználásával tanuljanak.
Másrészt Edward Feigenbaum olyan szakértői rendszereket vezetett be, amelyek a humán szakértő döntéshozatali folyamatát utánozták. A program egy adott terület szakemberét kérdezné meg, hogyan reagáljon egy adott szituációban. Miután a megszerzett tudást gyakorlatilag minden helyzetre elsajátították a gépek a laikusok tanácsokat kaphatnak az adott programtól.
1990-es és 2000-es években a mesterséges intelligencia számos mérföldkőnek számító célja megvalósult.
Az MI történetének egyik fordulópontja az volt, amikor 1997-ben a regnáló sakkvilágbajnok és nagymester, Gary Kasparov vereséget szenvedett az IBM Deep Blue nevű sakkjátszó számítógépes programjától. A gép győzelme az ember felett új távlatokat nyitott a mesterséges intelligenciának akár az emberi szintet meghaladó képessége tekintetében.
A másik fordulópontot annak felismerése jelentette, hogy az intelligencia nem egyenlő a tudással. Az ember ugyanis sok dolgot nem szabályalapon, hanem ösztönösen végez, és a gépekbe amúgy is lehetetlen lenne minden létező tudást és szabályt beprogramozni. Az intelligencia sokkal inkább a tanulás és a tanulásból az általánosítás képessége.
A hatékony tanuláshoz azonban megfelelő mennyiségű adat szükséges. 2012 környékén a gépi tanulás és a big data kombinációjából létrejött az úgynevezett deep learning (mélytanulás).
Ennek számos látványos, mindennapi életünkben is érezhető eredménye lett. Ilyen például a hangfelismerő rendszerek pontosságának ugrásszerű javulása, az egyre megbízhatóbb önvezető autók, a rendkívül hatékony arcfelismerő rendszerek.
A mesterséges intelligencia hasznosítása
A mesterséges intelligencia mostanra a mindennapjaink részévé vált. Az online vásárlások és a célzott online reklámok, a gépi fordítóprogramok, a navigáció az okos eszközök az otthonunkban, a mezőgazdaságban és az iparban, valamint az önvezető autók mind-mind mesterséges intelligenciát használnak. Az MI tehát az Open AI ChatGPT alkalmazása előtt is az életünk számos területét befolyásolta. Mindez pedig nem csak lehetőséget, de kockázatokat is magában rejt.
Az adatok fontossága az MI használata során
A mesterséges intelligencia egy ún. gépi tanulást (machine learning) alkalmaz. A betáplált adatok alapján az algoritmus mintákat keres, a minták alapján pedig modellt generál. A rendszer a modell segítségével a már azonosított adatok alapján képes feldolgozni a későbbi mintákat. Az új adatokat a modell alapján a rendszer a megtanult mintázatokhoz rendeli, majd a minták alapján döntést hoz.
A felhasználási fázist tehát egy tanulási fázisnak kell megelőzni. A modellek tanításához pedig sok és jó minőségű adat kell. Sokszor nem is a technológia, vagy az MI modellek építéséhez és futtatásához szükséges számítógépes kapacitás a szűk keresztmetszet, hanem a gépi tanuláshoz szükséges adattömeg jogszerű beszerzése.
A mesterséges intelliencia használata és a GDPR
A tanulási fázis során a személyes adatokon automatizált műveletek összessége, vagyis a GDPR szerinti adatkezelés történik. Az a személy vagy szerv, aki a személyes adatok kezelésének céljait és eszközeit ennek során meghatározza, adatkezelőnek minősül.
A felhasználási fázisban a GDPR szerinti profilalkotásra és/vagy automatizált döntéshozatalra kerülhet sor.
Profilalkotás a személyes adatok automatizált kezelésének bármely olyan formája, amelynek során a személyes adatokat valamely természetes személyhez fűződő bizonyos személyes jellemzők értékelésére vagy előrejelzésére használják.
Az értékelés vagy elemzés a GDPR által felhozott példák szerint munkahelyi teljesítményhez, gazdasági helyzethez, egészségi állapothoz, személyes preferenciákhoz, érdeklődéshez, megbízhatósághoz, viselkedéshez, tartózkodási helyhez vagy mozgáshoz kapcsolódó jellemzőkhöz kapcsolódhat.
Profilalkotás lehet az is, ha a végső döntést az ember hozza.
Amennyiben az MI emberi beavatkozás nélkül hoz döntéseket, úgy automatizált döntéshozatalról beszélünk.
Önmagában az automatizált döntéshozatal az a képesség, hogy technológiai eszközök segítségével, emberi beavatkozás nélkül hoznak döntéseket.
Az automatizált döntéshozatal hatóköre eltérő, és részben átfedheti a profilalkotást, vagy abból eredhet.
Az automatizált döntéseket meg lehet hozni profilalkotással vagy anélkül; a profilalkotás történhet automatizált döntéshozatal nélkül. A profilalkotás és az automatizált döntéshozatal nem feltétlenül elkülönült tevékenységek. Valami, ami egyszerű automatizált döntéshozatali folyamatként indul, átalakulhat profilalkotáson alapuló folyamattá attól függően, hogy az adatokat hogyan használják fel.
A GDPR főszabálya szerint az érintett jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen – ideértve a profilalkotást is – alapuló döntés hatálya, amely rá nézve joghatással járna vagy őt hasonlóképpen jelentős mértékben érintené.
Az automatizált döntésekre vonatkozó speciális szabályok alapján az MI akkor használható jogszerűen, ha arra szerződés, jogszabály vagy kifejezett hozzájárulás megfelelő jogalapot szolgáltat. Az érintett kérésére továbbá lehetőséget kell biztosítani az emberi beavatkozással hozott döntésre is.
Az átláthatóság problémája
Az igazi probléma akkor van, amikor az MI „elszabadul” és már a rendszert tanító programozó sem tudja átlátni, hogy az adatokat az algoritmus miként használta fel. Egyes mesterséges intelligenciák ugyanis a tanulásukból egyáltalán nem következő eredménnyel látják el a feladataikat. Emiatt nem látható az, hogy az MI „fekete dobozában” milyen folyamat játszódott le a döntés meghozataláig. A mesterséges intelligenciák ugyanis rengeteg matematikai műveletet látnak el, amelyek egy része az ember számára már nem érthető.
Márpedig a GDPR az alapelvek között rögzíti az adatkezelés átláthatóságát, méghozzá a jogszerűség és a tisztességes eljárás követelményével egy sorban.
Az átláthatóság követelményének pedig az érintett könnyen hozzáférhető tájékoztatásával lehet eleget tenni, méghozzá az automatizált döntéshozatalra vonatkozó speciális elvárásoknak megfelelve:
- tájékoztatni kell az érintettet az automatizált döntéshozatal tényéről,
- az alkalmazott logikáról,
- és arról, hogy ez milyen várható következményekkel fog járni az érintettre nézve.
A tájékoztatás során nem elvárás, hogy a „fekete dobozt” kinyissuk, és üzleti titkot vagy szellemi tulajdonhoz való jogot sértsünk, de egyszerű módszerrel érdemi információt kell nyújtani a fentiekről az érintettnek.
Nagy adatigény vs. adattakarékosság
Az MI adatvédelmi jogi megfelelőségének másik kulcskérdése, hogy hogyan egyeztethető össze a tanulási fázis nagy adatigénye az adattakarékosság elvével? A GDPR szintén fontos alapelve ugyanis, hogy a személyes adatoknak az adatkezelés céljai szempontjából megfelelőnek és relevánsnak kell lenniük és a szükségesre kell korlátozódniuk. A tanulási fázishoz szükséges megfelelő mennyiségű és minőségű adat tehát nem vezethet korlátlan adatigényhez például azért, mert a mesterséges intelligencia nem a megfelelő hatékonysággal működik.
A jó gyakorlat az, ha először korlátozott mennyiségű tesztadatot használunk, és később is folyamatosan monitorozni kell a rendszer hatékonyságát.
Az MI rendelet és az adatvédelem
Az Európai Bizottság MI rendelete nem elsősorban adatvédelmi jogi fókuszú, de helyenként adatvédelmi aspektusokat is érint.
Az MI-rendszerek kockázati kategóriákba sorolásakor a rendelet rögzíti, hogy azok a foglalkoztatással és a munkavállalók irányításával kapcsolatos nagy kockázatú rendszerek, amelyek az érintettek teljesítményének és magatartásának nyomon követésére szolgálnak, hatással lehetnek az érintettek adatvédelemhez és magánélethez való jogára.
A rendelet indokolása kifejezetten előírja a rendelet GDPR-ral való összhangban történő alkalmazás szükségességét.
A Bdapest Bank-ügy – a magyar MI adatvédelmi jogeset
A Budapest Bank Zrt. az ügyfélszolgálati hívások rögzített hanganyagának elemzése céljából alkalmazott MI-megoldásokat alkalmazó szoftvert. A beszédjel-felismerő és értékelő rendszer elemezte a beszélő érzelmi állapotát, kulcsszavakat és egyéb jellemzőket, amely alapján egy sorrendet állított fel az ügyfelek visszahívására. A visszahívásról való döntést ezt követően a bank munkavállalói hozzák meg. A bank állítása szerint az alkalmazást panasz és ügyfél elvándorlás megelőzése érdekében üzemeltette. Az így nyert adatokat azonban az ügyfélszolgálati munkatársai munkájának minősítésére is felhasználta. Mindezt anélkül, hogy erről az érintetteket megfelelően tájékoztatta volna.
A bank honlapján ugyan megtalálható volt az érintetteknek nyújtott, telefonos ügyfélszolgálattal kapcsolatos adatkezelési tájékoztató, azonban az csak általánosságokat tartalmazott. Az adatkezelési tájékoztatóból annak ellenére hiányzott a hangelemzéssel kapcsolatos érdemi információ, hogy a saját adatvédelmi hatásvizsgálata is magas kockázatúnak minősítette az adatkezelést.
Ilyen magas kockázatnak minősítette a profilalkotás lehetőségét, a pontozást és az érintettre gyakorolt joghatást, azonban nem adott érdemi megoldásokat ezen kockázatok kezelésére.
Bár a bank készített érdekmérlegelési tesztet a jogos érdekre alapított adatkezelésre vonatkozóan, de azt a NAIH érvénytelennek minősítette. A bank ugyanis csak azt állapította meg, hogy az általa elérni kívánt érdeke érvényesítéséhez szükséges az adatkezelés, az arányosságot és az érintetti oldalt ténylegesen nem vizsgálta.
A NAIH az adatkezelés vizsgálatakor azt is értékelte, hogy a hangelemző szoftver ráadásul meglehetősen alacsony hatékonysággal működött: az érzelem az esetek 91,96%-ban nem volt felismerhető, így a rendszer eleve nem volt alkalmas a kitűzött célok elérésére.
Az adatvédelmi hatóság rögtön az első jogszerűtlen MI használattal kapcsolatos döntésében rekord összegű, 250 millió forintos bírságot szabott ki.
Az olasz adatvédelmi hatóság ChatGPT-re vonatkozó ideiglenes intézkedése
Az olasz adatvédelmi hatóság (Garante) 2023. március 30-án azonnal hatállyal tiltotta meg a ChatGPT olasz érintetteket érintő adatkezelését jogellenes adatgyűjtés és a kiskorúak életkorát ellenőrző (age gate) rendszer hiánya miatt.
Az ideiglenes intézkedés előzményei
A döntés előzményeként hivatkozott a Garante arra a 2022 márciusi incidensre, amikor a ChatGPT a felhasználók beszélgetésével és az előfizetők fizetési információival kapcsolatos adatok szivárogtak ki.
A közveten előzmény pedig az volt ,hogy 2023. március 20-án a ChatGPT szolgáltatás technikai hibája miatt a felhasználók korlátozott ideig más felhasználók csevegési előzményeit látták a sajátjuk helyett. Az üzemeltető, az OpenAI nyilvánosan elismerte a problémát és megerősítette, hogy a feltárt adatok között nevek, vezetéknevek, e-mailcímek és a ChatGPT fizetős szolgáltatásának, a ChatGPT Plus esetében használt hitelkártyák utolsó négy számjegye és lejárati dátuma is szerepelt.
A Guarante hivatalból megindított vizsgálata
A ChatGPT 2022. november 30. óta volt elérhető az EU-ban és az OpenAI csak 2024. február 15-től rendelkezett telephellye Írországban. A Garante az ezt megeőzően történt jogsértések esetén a GDPR szerinti egyablakos ügyintézési mechanizmust alkalmazásával rendelkezett hatósággal az eljárás lefolytatására.
Az adatkezelő a folyamatban lévő letelpedés helye szerinti ír adatvédelmi hatóságot értesítette az incidensről, de az olaszt nem. Ezért a Garante megállapította a GDPR incidenssel kapcsolatos előírásainak megsértését.
A Garante úgy évlte, hogy a ChatGPT szolgáltatás tanítási fázisában már a szolgáltatás elindítását megelőzően megkezdődött az adatkezelés. Döntésében kifogásolta az OpenAI megfelelő tájékoztatását az érintettekre és az algoritmus tanulását szolgáló adattömeg kezelésének jogalapjára vonatkozóan.
Az olasz adatvédelmi hatóság az adatok pontosságát illetően is jogsértést állapított meg arra tekintettel, hogy a ChatGPT által szolgáltatott információk gyakran nem aktuálisak, illetve nem egyeznek meg a valós adatokkal.
Végül azzal kapcsolatban is jogsértést állapított meg a Garante, hogy a ChatGPT annak ellenére nem alkalmazott semmilyen életkor-ellenőrző technikai megoldást, hogy az alkalmazást 13 éven felülieknek kínálja az ÁSZF szerint. A szolgáltatási feltételek (ToS) a kiskorúakat a potenciális felhasználól között azonosította és kimondta, hogy a 13 és 18 év közötti felhasználók szerződéskötéséhez a törvényes képviselő hozzájárulása szükséges.
A Garante további információkat kért az Open AI-től, és a következő állítólagos GDPR-sértéseket kifogásolta:
- a ChatGPT nem biztosította az átláthatósághoz szükséges információkat a felhasználók és más érintettek számára, akiknek adatait a ChatGPT gyűjti;
- az algoritmusok „tanítása” céljából történő adatkezelés megfelelő jogalapjának hiánya;
- a ChatGPT által megadott téves információk a pontosség elvét sérthetik;
- a felhasználók életkorának ellenőrzésének elmulasztása, amelynek következtében a 13 éven aluli felhasználók életkori sajátosságaiknak nem megfelelő információkhoz is hozzáférhetnek.
A Garante eljárást megindító döntésének jelentősége
Az olasz adatvédelmi hatóság eljárást megindító döntése az első olyan intézkedés, amelyet egy európai uniós adatvédelmi hatóság a generatív mesterséges intelligencia eszköz által végzett adatkezeléssel kapcsolatban hozott. A döntés különös jelentőségét az adja, hogy a machine learning szoftver tanulási fázisának kontextusa 2023-ban hirtelen lett hot topic az adatvédelemben. Ráadásul egy olyan alkalmazást érintett, ami állítólag a történelem eddigi leggyorsabban növekvő fogyasztói applikációja.
A Garante azonnali hatályú döntése sem a jogos érdek jogalap használatainak, sem az érdekmérlegelési teszt jogszerűségének feltételeit nem részletezte. Az viszont látható, hogy a döntés nem tesz különbséget az algoritmus tanulási fázisában felhasznált személyes adatok, és a más lefejlesztett algoritmusba bevitt személyes adatok között.
Ugyanakkor ez a döntés nem az első MI-vel kapcsolatos döntése az olasz adatvédelmi hatóságnak. 2023 februárjában ugyanis a Garante a felhasználók virtuális barátjaként működő Replika nevű chat-bot alkalmazás kapcsán tiltotta meg az Olaszországban lakóhellyel rendelkező természetes személyek adatainak kezelését.
A Garante feltételei a ChatGPT-vel szembeni korlátozások feloldásához
A hatósági döntés után az OpenAI azonnal reagált, és kifejezte hajlandóságát, hogy a Garante felhívását tejesítse. A felek között rövidesen egyeztetésre kerül sor videokonferencia útján. A társaság arra kérte az olasz adatvédelmi hatóságot, hogy helyezze hatályon kívül az azonnali tiltást elrendelő végzését.
A Garante 2023 április 11-i döntésében megállapította, hogy a társaság megfelelési hajlandósága fényében lehetőség van az ideiglenes korlátozást megalapozó körülmények újraértékelésére.
A Garante által az OpenAI számára előrt kötelezettségek:
- Az OpenAI-nak a ChatGPT weboldalán kellett tájékoztatást adnia azon érintettek számára, akiknek adatait algoritmus fejlesztése céljából gyűjtötték és kezelték.
- Az érintetteket megillető jogokról az adatkezelés minden lényeges elemére tekintettel tájékoztatni kell az érintetteket.
- A weboldalon elérhetővé kellett tenni egy olyan eszközt, amellyel az érintettek gyakorolhatják tiltakozási jogukat az algoritmusok betanítása és a szolgáltatás nyújtása céljából kezelt datokat harmadik személyektől szerezték be.
- A weboldalon elérhetővé kell tenni egy eszközt, amellyel az érintettek kérhetik és megszerezhetik a rájuk vonatkozó, hibás személyes adatok helyesbítését, vagy a törlését – ha a helyesbítés a technológia jelenlegi állása szerint nem lehetséges.
- A regisztrációs folyamatban a felhasználói adatkezelési tájékoztatóra mutató hivatkozást olyan helyen kell elhelyezni, amely még a regisztráció folytatása előtt lehetővé teszi annak elolvasását.
- A felhasználók személyes adatainak algoritmikus képzés céljából történő kezelésére a szerződéses jogalap helyett a jogos érdek jogalapot kell használni, a megfelelő érdekmérlegelés elégzésével.
- A tiltakozást könnyen elérhető eszközzel kell biztosítani azon felhasználók számára is, akik a szolgáltatás igénybevétele során szerzett adataik kezelése ellen szeretnének tiltakozni.
- A szolgáltatás újraaktiválása esetén age gate-et kell bevezetni a kiskorú felhasználók szűrésére.
- Az Open AI-nak 2023. május végéig az olasz tömegmédiában közzétett, marketing célokat mellőző kampányban kellett tájékoztatást adni arról, hogy az érintettek adatait a ChatGPT az algoritmus tanítására felhasználja. A kampányban az adatkezelési tájékoztatóra, az érintetti jogokat biztosító eszközökre, 13 év alatti kiskorú felhasználók szűrésére, és a 18 év alattiak esetében a szülői hozzájárulás szükségességére is fel kellett hívni a figyelmet.
Kikre vonatkozott a Garante intézkedése?
Fontos, hogy valamennyi intézkedést az Olaszországban tartózkodási hellyel rendelkező érintettekre vonatkozóan hozott meg a Garante, függetlenül attól, hogy használják -e az alkalmazást.
A Garante joghatósága ugyanis egyelőre csak rájuk terjedt ki.
A Garanténak azonban már a tiltó akcióját követően is sorra erősítették meg a mesterséges intelligencia terén kifejtett felügyeleti tevékenységüket európai adatvédelmi hatóságok.
Az EDPB 2023. április 13-án bejelentette, hogy külön munkacsoportot hozott létre a ChatGPT-vel kapcsolatos együttműködés előmozdítása és az adatvédelmi hatóságok által hozott intézkedésekkel kapcsolatos információcsere érdekében.
A Garante ChatGPT-vel szembeni intézkedéseinek jelentősége
A Garante intézkedéséből az látszik, hogy nem a tiltás, hanem az alkalmazás GDPR-nek megfelelő szolgáltatása a célja.
A GDPR-nek megfelelő MI használatat tekintetében a hatóság döntése valamennyi MI-t használó fejlesztő cégnek fontos iránymutatással szolgálhat. A Garante által megfogalmazott elvárásokat tulajdonképpen checklistként is lehet használni a mesterséges intelligenciát használó alkalmazások jogszerűségéenk megteremtésében.
Az érintetti jogok gyakorlására szolgáló eszközök könnyen elérhetőségének követelménye a UX/UI fejlesztők számára fontos elvárás. (E tárgyban épp a közelmúltban adott ki egyébként iránymutatást az Eurólai Adatvédelmi Testület).
Az olasz hatóság a tájékoztatás és az érintetti jogok biztosításának megfelelő láthatóságára is gondolt: tájékoztató kampány kifejezetten előremutató gondolat. Mivel a tanulási fázis bárkit érinthet, ezért praktikus elvárás, hogy a tájékoztatás ne csak interneten történjen meg. A rádiós, televíziós és print sajtóban közzétett kampánnyal azok is elérhetők, akik nem felhasználói a ChatGPT-nek.
Bár ezzel szemben elvárás, hogy elsősorban ne marketing célokat szolgáljon („non-marketing orented”), azonban ez nem zárja ki a marketing szempontból is eredményes megvalósítást.
A Garante által előírt határidők meglehetősen rövidek voltak, de a követelmények megfelelő teljesülését követően április végére újra elérhető lett a ChatGPT Olaszországban.
Az olasz hatóság eljárást lezáró határozata
A Garante végül 2024. december 20-án zárta le a ChatGPT-vel szemben megindított eljárását. Az olasz adatvédelmi hatóság végül 15 millió eurós bírságot szabott ki az OpenAI-ra a személyes adatok átláthatatlan, megfelelő jogalap nélküli adatkezelési miatt.
Az eljárásban figyelemre méltó, hogy a Garante az olasz adatvédelmi törvény szerini új hatáskörével elsőként éve írt elő adatkezelőre 6 hónapos – valamennyi médiumot lefedő – kommunikációs kampányt.
Az eljárást lezáró határozat a 2023. március 30-i ideiglenes intézkedést elrendelő döntés megállapításait követte.
Források
Eszteri Dániel: Mesterséges intelligencia fejlesztés, üzemeltetés és a személyes adatok védelme
https://www.naih.hu/files/wp251rev01_hu.pdf
https://www.muszaki-magazin.hu/2023/02/06/mesterseges-intelligencia/
https://gdprhub.eu/index.php?title=Garante_per_la_protezione_dei_dati_personali_(Italy)_-_10085455
[1] https://www.muszaki-magazin.hu/2023/02/06/mesterseges-intelligencia/

