Tudósközelben: Benczúr András matematikus, egyetemi tanár

IPM: Ez így van a számítógépben! – halljuk ledorongoló érvként hivatalban és hipermarketben. Muszáj hinnünk a gépeknek?

Benczúr András: Amit egyszer már számítógépekkel kezelhető jellé alakítottak, az nem létezik kézzelfoghatóan, mert számítástechnikai eljárások – programok, algoritmusok – szükségesek ahhoz, hogy a jeleket ismét „értelmes” formában érzékelhessük. Ebben a folyamatban pedig mindig ott van a fel nem ismert hibák és a manipuláció lehetősége. Magam belülről éltem végig a kezdeti alkalmazásoktól a világhálóig végigrohanó technológiai fejlődést. Ebben kerestem a matematikai modellezés lehetőségeit, a véletlen-információ-kiszámíthatóság alapján, és azt, hogy ezek miként fûzhetőek egybe.

IPM: Miért olyan fontos a véletlenszerûség?

B. A.: Egyrészt a temérdek emberi üzenet és észlelés megjelenítése, digitalizálása miatt – mindez a múltra vonatkozóan, a múlt lenyomataként –, ami bekerül a számítógépek világába. Másrészt ezen információk elemzéséből következtethetünk arra, hogy bizonyos jövőbeli jelenségek mennyire és milyen véletlen jellegû viselkedést fognak mutatni. A kérdés az, van-e mód rá, hogy a véletlenszerûségeket számunkra kedvező irányba befolyásoljuk. Ehhez rá kell jönnünk arra, miként lehet a múlt hatalmas jelhalmazából kihámozni a viselkedés jellemző szerkezetét. Ha ezt sikerül kiválasztanunk, akkor a megmaradó rész már nem más, mint a struktúra mögötti véletlenszerûség. Amikor majd ilyen jelenséggel találkozunk a jövőben, akkor a szerkezet hasonló lesz, a véletlenszerûséget azonban nem tudjuk befolyásolni. Persze ez a nagyon nagy jelenségek leírásának világa, és nem „tökéletesen”, hanem egyre jobb megközelítéssel, mert a nagy jelenségek valamilyen módon az egyenletes eloszlás irányába alakulnak.A pénz- és kockafeldobásnál például tudom, kiszámíthatom, hogy a próbálkozásokból fele-fele arányban jön ki fej vagy írás, és a kockánál egyhatod lesz a hatosok aránya. Minél hosszabbak a dobássorozatok, annál inkább megközelítjük a megjósolt, fele-fele, illetve egyhatod értéket.

IPM: Mennyire nagy jelenségek leírására alkalmas ez a megközelítés?

B. A.: Ilyen a nagyon nagy hálózatok világa, amelyek a matematika nyelvén nagy gráfok, ezek elemezhetőek a hálózatkutatás módszereivel és leírhatók az ismert modellekkel. A nagy hálózatok körébe tartozik maga az internet, a világháló s annak elemei, mint a weblapok, a hiperlinkek. Mindez rendkívül nagy méretû, nagy komplexitású és igen gyorsan kifejlődött hálózat. Ezek leírhatók egyrészt jellemző paramétereik alapján, így a csomópontok, a pontok közötti kapcsolatok, a csomópontokhoz tartozó kapcsolatok számának eloszlása (és egyéb gráfelméleti jellemzők) révén. Másrészt a kifejlődő hálózat a véletlenszerû folyamatokat leíró modellek alapján is kialakulhat, ezzel pedig a véletlen gráfok elmélete foglalkozik. E téren egy sor neves magyar matematikussal büszkélkedhetünk: Pólya György, Rényi Alfréd, Erdős Pál, Lovász László, Bollobás Béla, Szemerédi Endre – hogy csak a legismertebbeket említsem.

Vizsgálódásaink végén pedig egyrészt megtudjuk, milyen az adott nagy hálózat (gráf) jellemző struktúrája, másrészt kiderül, mi az, ami megmarad véletlennek – és ez a véletlenszerû fejlődés a jövőben miként alakítja a szerkezetet. Ugyanez fölvetődik a szociológiai egységeknél, tehát a közösségi és szervezeti hálózatoknál is, valamint a gazdasági tevékenységek eloszlásánál. A módszerek alkalmazhatóak a mobilkommunikáció terén is, tágan értelmezve a fogalmat – tehát ne csak a hordozható telefonok hálózatára gondoljunk, hanem a meteorológiai és környezetszennyezést figyelő eszközökre, a jelzéseket továbbító jármûvekre, a GPS, a mûholdas navigáció és a mobiltelefon kombinációjára.

IPM: Mi a viszony kiszámíthatóság és véletlen között?

B. A.: A kiszámíthatóság és a véletlen viszonyának meghatározása a matematikában is viszonylag új elmélet – kereken négy évtizedes. A valóság véletlenszerûsége azonban nem ugyanaz, mint a matematika valószínûség-elméleti modellje. Nincs rá mód, hogy a jövőt teljes részletességében jellemezni tudjuk, de azt meg tudjuk határozni, hogy ha véges sok diszkrét, egységnyi, egymástól megkülönböztethető jelünk van a múltból, akkor ezekből mi számítható ki. A véletlen pedig a kiszámíthatóság komplementere.Ezzel együtt sem vált lényegtelenné a folytonos – tehát nem diszkrét jelekből álló – jelenségekkel való gazdálkodás, de az ezekből kiszámítható elemzéseket vissza kell transzformálni a diszkrét világba. Megjegyzem, így van ez még az analóg számítógép esetén is, amellyel szintén csak adott finomságú fizikai jelenségig tudunk lemenni.

Példaként vegyük azt, hogy egy tartály térfogatát a beleönthető víz mennyiségével mérem meg. Az összeadás mûveletét is el tudom így végezni. Ilyenkor a vízmolekula méreténél pontosabb eredményre nem számíthatok. A számítástechnikában ilyen diszkrét elem az elektron – galvanikus, azaz rézvezetékkel való összeköttetés esetén – és a foton, ha optikai átvitelt (üvegszálakat) használunk. Ezek mérethatára alá – legalábbis ilyen úton – nem lehet lejutni. A kvantumkomputer pedig egyelőre inkább a matematikai modellezés fázisában van. A kiszámíthatóság realizálható világa a diszkrét jelek alsó határáig terjed, a matematikai korlátot pedig az jelenti, hogy csak megszámlálhatóan sok különféle kiszámítást tudunk megadni. A folytonos, a kiszámítható, a véletlen és az előre jelezhető – mindezek annak ellenére fontosak, hogy korlátlannak hisszük a rendkívüli ütemben – még mindig exponenciálisan – növekvő számítási kapacitást. Azért fontosak, mert elvi és gyakorlati korlátot jelentenek. A Moore-törvény megjósolta a számítási kapacitás növekedésének sebességét, a jelenlegi technikával valószínûleg 2030 körül elérünk a növekedés határáig. A háttértárolókon lévő adatok elérési sebessége azonban ennél lassabban növekszik, így most ez jelenti a szûk keresztmetszetet.

IPM: Mekkora adatbázisok jelentenek komoly kihívást?

B. A.: A nagy adatbázisok világában az jelenti a kihívást, amikor az adattárolás és -kezelés mérete már ezerszerese annak, ami egy erős kiépítésû asztali PC-n megvalósítható. A tekintélyes kapacitású rendszerek felépítése, ösz-szekapcsolása, az adatfeldolgozás és annak megszervezése olyan feladat, amelyre nem könnyû testreszabott megoldást találni.A feladat méretéből adódó extra problémák jellemzően a több száz terabájtos (terabájt: ezermilliárd bájt – a szerk.) adatbázisoknál jelennek meg. Húsz éve még 10 ezerszer kisebb méretnél tartott ez a határ. Ilyen nagy méretekkel dolgozik például a genetikai kutatás, a csillagászat, az asztrofizika. Az idén mûködésbe lépő CERN részecskegyorsító – a Large Hadron Collider (LHC, Nagy Hadronütköztető Gyûrû) – a kísérletek során évente 5-10 petabájt (milliószor milliárd bájt – a szerk.) már megszûrt adatot produkál. Hogy a nagyságrendet érzékeljük: egy petabájtnyi adatot kereken 2000 közepes PC tudna tárolni és kezelni, mégpedig kétezerfelé szétosztva. Az adatok együttes kezelése, beolvasása ezen túlmutató kérdés…

IPM: Miért okozhat manapság is gondot a vállalatirányítást szolgáló számítógépes rendszerek (ERP-k) bevezetése?

B. A.: Nem a kapacitás szûkössége okozza a fő nehézséget, hanem inkább az, hogy a számítógép(hálózat) behatárolt, szabályozottabb, kivételek kezelésére alkalmatlanabb megoldásokat nyújt, mint amilyen egy vállalat valóságos mûködése. Egyébként az ilyen szisztémákat én számítógépesített információs rendszereknek nevezem.
Ezek nem önmagukban mûködnek, hanem személyek és komputerhálózatok, esetleg további mûszaki berendezések együtteseként. Ha az emberek fejében lévő ismeret, az általuk végzett tevékenység lényeges része nem vehető hozzá a gépi rendszerhez, ha az összefüggéseket nem sikerült korrekt módon leképezni, akkor a számítógép is inkorrekt lesz, mert nem „tudhatja”, mit hagyott ki. Ráadásul az ilyen rendszereket bővítik, fejlesztik, át- és továbbszervezik – ennek kézbentartása pedig még több problémát vet föl.

IPM: Amikor kérdezünk a számítógéptől, illetve a gépek hálózatától, valóban új információhoz jutunk?

B. A.: Ha az információt úgy tekintjük, mint az emberi tudatban kialakuló szerkezetet, akkor a rajtunk kívül tárolt részét nevezhetjük exformációnak. Ilyennek tekinthetjük például a könyvtárak és a világháló tartalmát. Ha valaki nagyon csekély információval rendelkezik, akkor az exformációt is csak nagyon lassan fogja megérteni.  Tehát az exformáció azoknak értékesebb, akiknek belső ismeretanyaga nagyobb (és ezen felül „hasznosan” nagyobb). Attól azonban, hogy megy nekem a megtalálni-lekérdezni mûvelete, még nem vagyok okos. És ha nincs egyéni információszerkezet a fejemben, akkor nem hasznosítom jól az interneten, a számítógépeken elérhető exformációkat. Ugyanis a komputerek világából nem tudunk több információt kinyerni, mint amennyit – egyénileg vagy kollektíven – belevittünk. És minél inkább tudjuk, mi van a gépben, annál könnyebben megtaláljuk – nem pedig véletlenszerûen rábukkanunk. &Iacutegy a válaszok információértéke – legalábbis matematikai értelemben és a teljes rendszerben értelmezve – nem lehet több annál, mint amennyi a kérdések információértéke. Persze az egyén szempontjából akadhat újdonságértéke a válasznak, hiszen esetleg már megfeledkezett arról, mi mindent vitt be a gépbe, vagy nem tudta, mi mindent tápláltak be más emberek.

IPM: És egyszer csak beköszönt az „értelmes” komputerek korszaka?

B. A.: 30–40 év múlva várható, hogy a komputerek túlhaladják az emberi agy kapacitását. Nagy kérdés, hogy ezek a gépek milyen – az intellektushoz hasonló – képességekkel és milyen fokú tudással rendelkeznek majd. Tényleg lehagyják-e az embert – és akkor többé nem lesz érdemes gondolkodnunk –, vagy vannak dolgok, amelyek mégsem következnek a teljesítmény ilyen fokú növekedéséből sem? Én ez utóbbi felé hajlok, elvégre a gépi rendszerek mûködtetéséhez algoritmusra, ember készítette programokra van szükség.

Márpedig programkódírási kapacitásunk korlátozott. Ráadásul a teljesítmény azon is múlik, hogy mennyi az ellenőrzött – nem csak hozzáadott, hanem korrekt – kódmennyiség. A komplex rendszerek hibamentességét egyre bonyolultabb ellenőrizni, ráadásul a hibamentesség teljességgel nem bizonyítható. A 30–40 év alatt előálló lehetséges algoritmuskészlet mennyisége pedig az emberiség teljesítőképességének határaiba ütközik. Persze ezzel együtt is nehéz lenne megjósolni, mi történik négy évtized múlva: várható-e az élő szervezetekéhez hasonló evolúciós folyamat a programkódok világában, szükség lehet-e az algoritmusok olyan felépítésére, amely gyökeresen eltér a maitól, és ez hogyan lesz megvalósítható. §

  • 30–40 év múlva várható, hogy a komputerek túlhaladják az emberi agy kapacitását. Nagy kérdés, hogy ezek a gépek milyen – az intellektushoz hasonló – képességekkel és milyen fokú tudással rendelkeznek majd. Tényleg lehagyják-e az embert – és akkor többé nem lesz érdemes gondolkodnunk…?

  • Életrajz
    Dr. Benczúr András 1944-ben született. A Fazekas Mihály Gyakorló Gimnáziumba járt, itt fedezte fel adottságait matematikatanára, Rábai Imre. A Nemzetközi Matematikai Diákolimpián III. díjat ért el, majd az ELTE TTK matematikus szakán tanult. 1967-től az MTA Számítóközpontjának (későbbi nevén SZTAKI) valószínûségszámítási és statisztikai osztályán dolgozott, 1974-ben Benczúr irányításával fejlesztették ki azt a táv-adatfeldolgozó rendszert, amellyel a Dunai Vasmû egy dunaújvárosi terminálról tudta használni a budai Várban lévő komputert (bérelt vonalon). 1979-től a SZ&AacuteMKI (Számítógépalkalmazási Kutató Intézet) egyik osztályát vezette, 1982-től az &AacuteNH (&Aacutellami Népességnyilvántartó Hivatal) fejlesztési főosztályát. Itt sok hasznos tapasztalatot szerzett a nagy számítógéprendszerek mûködtetésében. 1983-ban az ELTE Számítóközpont tudományos főmunkatársa és igazgatóhelyettese let. A SZTAKI-val együtt végzett adatbázis-kutatásokért társaival együtt 1988-ban Akadémiai Díjat kapott.1990-ben nevezték ki egyetemi tanárrá. 1992–93-ban vendégprofesszorként szintén adatbázis-kezelést tanított az USA-ban (University of North Carolina). 1996-tól vezeti az ELTE Információs Rendszerek tanszékét. 1997–2001-ben az ELTE Természettudományi Kar dékánja. Az MTA Informatika- és Számítástudományi Bizottságának 1999–2004-ben elnöke, jelenleg alelnöke. Az E-Science Regionális Egyetemi Tudáscentrum tudományos tanácsának elnöke, a BMF (Budapesti Mûszaki Főiskola) egyetemi tanára.