Elképesztő sebességgel robbant be a köztudatba a ChatGPT nevű, Mesterséges Intelligencián alapuló alkalmazás, amely meghökkentően jól képes az emberek által feltett kérdésekre, illetve kérésekre válaszolni. Mivel minden területen rendkívül „tájékozott”, így adja magát a lehetőség, hogy információbiztonsági szempontból is megvizsgálásra kerüljön a jelenség, amit egyébként részben a Nemzeti Kibervédelmi Intézet is megtett már és a veszélyekre rávilágító ajánlást adott ki a használatával kapcsolatban.
Ami számomra az első élmények között van, és amire mások is felhívták már a figyelmemet, hogy minden érdeme elismerése mellett rendkívül zavaró az a fajta magabiztosság, amivel valótlanságokat állít következetesen. Ez első ránézésre vicces, megfontolás után inkább veszélyes. A legjobb példa, ha megkérdezzük tőle, hogy mivel foglalkozik a jogalappal.hu weboldal.
A chatbot persze csak egy érdekes implementációja a Mesterséges Intelligencia lehetőségeinek, és van is némi rálátásom a munkám kapcsán a neurális hálózaton alapuló, Mesterséges Intelligenciával támogatott adatelemzés, keresés, anomáliakutatás lehetőségeire, akár információbiztonsági területen is. Bemelegítésként azt kérdeztem a ChatGPT-től, hogy eltitkolná-e, ha kibertámadás áldozatává válna?
A válasz jól sikerült, nehéz nem egyetérteni vele. Még mindig jól teljesített, amikor a válasza kapcsán rákérdeztem, hogy a kibertámadást egyébként be kell-e jelenteni Magyarországon? A válasza jól strukturált, és bár jogszabály valójában csak egy meghatározott kört kötelez erre, de felhívja a figyelmet a bejelentés általános, társadalmi hasznosságára.
Nyilván, adja magát a kérdés, hogy, ha be kell jelenteni, akkor milyen kibertámadásokról tud Magyarországon? És ez az a pont, ami rávilágít a modell sérülékenységére, ugyanis a ChatGPT nem tudja az információforrást megjelölni. Ennek fényében pedig egy egészen érdekes beszélgetés bontakozott ki a későbbiekben.
Bár nem vagyok az atomerőmű, mint kritikus infrastruktúra kibervédelmének részletekbe menő ismerője, de a fent megjelölt kibertámadások túlnyomó részéről sem eddig, sem a rövidke keresgélésem után nem volt, illetve nincs más forrásból információm. Ennek egyik kézenfekvő oka lehet, hogy ezek a támadások soha nem történtek meg.
A másik, talán még érdekesebb lehetőség, hogy legalább részben igen, pusztán az információ forrása nem kapott figyelmet más keresőszolgáltatók, például a Google részéről. A ChatGPT tanítóhalmazának részét képezték közösségi médiaplatformok, fórumok, tudományos művek, könyvek tartalmai is, melyek esetleg nem, vagy csak ritkán jelennek meg a Google találatai között.
Egy ilyen modell – és akkor itt kapcsolódok a címadásban felvetett gondolathoz – olyan, a Google motorjától független információk vagy összefüggések felszínre kerülését is lehetővé teszik a jövőben, ami adott esetben releváns információbiztonsági kérdéseket vethet fel. Különösen igaz ez akkor, ha olyan, egyébként jelöletlen források vagy következtetések kerülnek a fókuszpontba, amelyek végső soron valamilyen védendő, vagy nem a nyilvánosságnak szánt információt jelentenek.
A fenti problémafelvetés persze valójában eleve meghaladott, hiszen ezek az adatbázisok és adatelemző módszerek már évek óta velünk élnek, a ChatGPT pusztán egy izgalmas, nyelvi, illetve kommunikációs szempontból magasabb szintet jelentő keretbe helyezi mindezt.
De ezzel együtt is izgalmas, hogy mi lesz akkor, ha a Mesterséges Intelligencia megválaszol majd egy olyan kérdést, amire információbiztonsági szempontból nem tudhatná a választ, és senki sem fogja tudni, hogy milyen források alapján válaszolta meg azt. Persze, az sem kevésbé érdekes, ha egy „humán” elemző jut hasonló eredményre, de azt legalább meg lehet kérdezni minderről.