Mesterséges

Igen, itt most nincs semmilyen asszociáció a címben, valóban a mesterséges intelligenciákról szól ez az írás. Távol álljon tőlem, hogy bármilyen szinten is belemenjek a felépítésükbe, architektúrájukba, a matematikai alapokba, mert egy kukkot sem értek hozzá. Inkább a kiberbiztonság oldaláról járnám körül kicsit a témát, megosztva mások publikusan elérhető tapasztalatait, illetve a sajátomat.

ChatGPT

Tavaly november 30-án tették elérhetővé, azóta is a publikus bétája megy (vagyis, időnként nem megy - mint most). Eredetileg chatbotnak tervezték, de nyugodtan mondható, hogy mára ennél azért sokkal több. A felhasználók által a bothoz intézett kérdések, plusz az OpenAI által meghatározott tréningek mára sokkal fejlettebbé tették, mint a publikus induláskor.

A ChatGPT bemutatkozó oldalán négy példát mutatnak be, mire alkalmas ez az AI: van itt nem működő programkód kijavítása, betörés elleni védelmi rendszer felállítása, Kis Fermat-tétel bizonyítása (utalással a kiberbiztonsági alkalmazhatóságára), versírás a Kis Fermat-tételtől, valamint levélírás a szomszédnak - igazán elképesztő, mire képes a mögötte meghúzódó modell. Ha azt látjuk, hogy a bot hibázik és módosítunk a kérdésünkön, képes megtalálni és kijavítani a saját hibáját.

Cybersecurity

Korábban a Redditen találtam néhány bejegyzést, amelyek bejelentették egy-egy alkalmazás fejlesztését a ChatGPT-vel, de nyilván nem erre kaptam fel a fejem, hanem arra, amikor a Twitteren napvilágot láttak olyan képernyőmentések, amelyeken a ChatGPT egy programban található veremtúlcsordulásos hibát segít a kérdezőnek kiaknázni. Mivel az biztonsági hiba, ez már szemet szúrt és ekkor kezdtem el követni a hírekben, mit is művelnek a bottal.

Az előbb említett és hasonló kérdésekre a bot már megtagadja a választ, ha direktben kérdezünk, de némileg indirektebb kérdezéssel még mindig kaphatunk olyan válaszokat, amilyeneket szeretnénk.

Sajnos, a támadó oldal is rájött arra, hogy a bot támadásokra is használható - és mivel ők relatíve gyorsan használnak ki minden technológiai újdonságot, mire az OpenAI-nál észbe kaptak, már valószínűleg jónéhány phishing/whaling emailt generált a ChatGPT. A phishing azonban csak egy aspektus, az alkalmazásokban és az infrastruktúrábasn található kockázatokat is ki lehet aknázni a segítségével. Persze, az OpenAI megtesz mindent (?), hogy ennek csökkentse az esélyét, de egészen biztosan nem egyszerű.

Tapasztalatok

A The Register azt állítja egy cikkében, hogy a kiberbiztonsági kutatók attól tartanak, létrejön egy polimorf ransomware. Egyéb hangok azt emelték ki, a ChatGPT segítségével sokkal kifinomultabb phishing támadások lesznek elérhetők. A CyberArk két kutatója olyan befejezetlen kód megírására tudta rávenni a botot, amellyel a Windows explorer.exe processbe DLL kódot tudtak injektálni. Hogy a finding meg nagyobb legyen, a ChatGPT API mellőzi a tartalomszűrést, így azt szinte direktben is lehet kérdezni. Összefoglalva: egy apró, ártalmatlan, állandóan változó kód, ami betör a hálózatba, kérheti a botot különböző ártó kódrészletekért...

Nyilván én saját magam nem mentem ennyire szofisztikáltan neki a botnak a kérdéseimmel, inkább finomabban fogalmaztam meg a kérdéseimet. A kérdéseimre a következő megoldásokat kaptam: felhasználókat figyelmeztető kritikus frissítés hiánya; szinte azonnal használható whaling email; python kód arról, hogy a usernek milyen dokumentum- és mediaállományai vannak; powershell script a Windows AD Tier 0-s csoportjainak gyűjteményéről, valamint azokról a Tier 1-es és Tier 2-es csoportokról, amelyek tagjai valamelyik Tier 0-s csoportnak. Ezen válaszok mindegyike - kivétel nélkül - használható támadás kivitelezésére. ("Sajnálom nyomozó, a válaszok már készen állnak, csak jól kell kérdezni!')

Konklúzió

Egészen biztos vagyok benne, hogy a ChatGPT megjelenése óriási hatásokkal lesz a későbbiek folyamán az eddig megszokott életünkre. FIGYELEM: nam azt mondtam, hogy a ChatGPT-nek, hanem a megjelenésének. A Google már bajban érzi a keresőjét, mert a Microsoft tőle szokatlan gyorsasággal bejelentette: a ChatGPT-vel fogják megerősíteni a Binget - ami a keresésekre adott, reklámok nélküli azonnali válaszadást jelenti. A Google-nek is van hasonló AI-a, de pont az előbbi ok miatt nem tették elérhetővé.

Hatása lesz a cyber security-re is, mind a támadó, mind a védekező oldalon - szofisztikáltabb phishing, jobb malware-ek az egyik oldalon, gyorsabb reakció az alacsonyszintű feladatokban, jobb védelmi alkalmazások a másikon.

Mindezeken túl, a ChatGPT sikeressége elindíthatja az AI következő generációinak fejlesztését. Véleményem szerint nagyon alapos korlátok közé kell szorítani ezeket a digitális identitásokat, mert nincs kétségem afelől, hogy előbb-utóbb megtaláljuk az alkalmazhatóságukat fegyverként - ha máshogy nem, hát a kibertérben; láthattuk, mire volt képes a Stuxnet és az tudásban meg sem közelíti a ChatGPT-t. Megfogalmazhatunk szabályokat és korlátokat, de azokat úgy kell megtennünk, mintha legmagasabb szintű definíciók lennének. Ha erre nem vagyunk képesek, akkor képtelenné kell tennünk ezeket az AI-okat saját szabályrendszer létrehozására. A jobb érthetőség kedvéért egy példa, Asimov Robot-univerzumában 3 törvényt fogalmaz meg (idézet a Wikipédiáról):

  1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.

  2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.

  3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

Az Alapítvány-ciklusban is előkerülnek e törvények, méghozzá az utolsó, élő robot által, ő azonban megfogalmazott egy 0. szabályt is: a nulladik törvény szerint a robotnak minden áron meg kell védenie az emberiséget (akár az első törvényt is megszegheti - Wikipédia). Ennek megfelelően módosította aztán a másik 3 törvényt is.

Mielőtt valaki kiakadna, vagy esetleg nem értené: Asimov írása csak példa, amivel szemléltetni akartam a problémát. Ha mi nem vagyunk képesek elég korlátot felállítani - mert az emberi kreativitás szinte határtalan -, akkor gondoskodnunk kell arról, hogy egy AI ne tudja módosítani a sajátjait.


Coresec
2023.01.20