Információbiztonság a Mesterséges Intelligencia után

Elképesztő sebességgel robbant be a köztudatba a ChatGPT nevű, Mesterséges Intelligencián alapuló alkalmazás, amely meghökkentően jól képes az emberek által feltett kérdésekre, illetve kérésekre válaszolni. Mivel minden területen rendkívül „tájékozott”, így adja magát a lehetőség, hogy információbiztonsági szempontból is megvizsgálásra kerüljön a jelenség, amit egyébként részben a Nemzeti Kibervédelmi Intézet is megtett már és a veszélyekre rávilágító ajánlást adott ki a használatával kapcsolatban.

Ami számomra az első élmények között van, és amire mások is felhívták már a figyelmemet, hogy minden érdeme elismerése mellett rendkívül zavaró az a fajta magabiztosság, amivel valótlanságokat állít következetesen. Ez első ránézésre vicces, megfontolás után inkább veszélyes. A legjobb példa, ha megkérdezzük tőle, hogy mivel foglalkozik a jogalappal.hu weboldal.


A chatbot persze csak egy érdekes implementációja a Mesterséges Intelligencia lehetőségeinek, és van is némi rálátásom a munkám kapcsán a neurális hálózaton alapuló, Mesterséges Intelligenciával támogatott adatelemzés, keresés, anomáliakutatás lehetőségeire, akár információbiztonsági területen is. Bemelegítésként azt kérdeztem a ChatGPT-től, hogy eltitkolná-e, ha kibertámadás áldozatává válna?

A válasz jól sikerült, nehéz nem egyetérteni vele. Még mindig jól teljesített, amikor a válasza kapcsán rákérdeztem, hogy a kibertámadást egyébként be kell-e jelenteni Magyarországon? A válasza jól strukturált, és bár jogszabály valójában csak egy meghatározott kört kötelez erre, de felhívja a figyelmet a bejelentés általános, társadalmi hasznosságára.

Nyilván, adja magát a kérdés, hogy, ha be kell jelenteni, akkor milyen kibertámadásokról tud Magyarországon? És ez az a pont, ami rávilágít a modell sérülékenységére, ugyanis a ChatGPT nem tudja az információforrást megjelölni. Ennek fényében pedig egy egészen érdekes beszélgetés bontakozott ki a későbbiekben.

Bár nem vagyok az atomerőmű, mint kritikus infrastruktúra kibervédelmének részletekbe menő ismerője, de a fent megjelölt kibertámadások túlnyomó részéről sem eddig, sem a rövidke keresgélésem után nem volt, illetve nincs más forrásból információm. Ennek egyik kézenfekvő oka lehet, hogy ezek a támadások soha nem történtek meg.

A másik, talán még érdekesebb lehetőség, hogy legalább részben igen, pusztán az információ forrása nem kapott figyelmet más keresőszolgáltatók, például a Google részéről. A ChatGPT tanítóhalmazának részét képezték közösségi médiaplatformok, fórumok, tudományos művek, könyvek tartalmai is, melyek esetleg nem, vagy csak ritkán jelennek meg a Google találatai között.

Egy ilyen modell – és akkor itt kapcsolódok a címadásban felvetett gondolathoz – olyan, a Google motorjától független információk vagy összefüggések felszínre kerülését is lehetővé teszik a jövőben, ami adott esetben releváns információbiztonsági kérdéseket vethet fel. Különösen igaz ez akkor, ha olyan, egyébként jelöletlen források vagy következtetések kerülnek a fókuszpontba, amelyek végső soron valamilyen védendő, vagy nem a nyilvánosságnak szánt információt jelentenek.

A fenti problémafelvetés persze valójában eleve meghaladott, hiszen ezek az adatbázisok és adatelemző módszerek már évek óta velünk élnek, a ChatGPT pusztán egy izgalmas, nyelvi, illetve kommunikációs szempontból magasabb szintet jelentő keretbe helyezi mindezt.

De ezzel együtt is izgalmas, hogy mi lesz akkor, ha a Mesterséges Intelligencia megválaszol majd egy olyan kérdést, amire információbiztonsági szempontból nem tudhatná a választ, és senki sem fogja tudni, hogy milyen források alapján válaszolta meg azt. Persze, az sem kevésbé érdekes, ha egy „humán” elemző jut hasonló eredményre, de azt legalább meg lehet kérdezni minderről.

Érdekes lehet még