Az életerő keresése

A „homo faber” egy új játékot fedezett fel. Hogy új-e az új, azt igyekszünk majd jelen összeállításunkban megmagyarázni, mert előzmények nélküli „új” ritkán születik. Idősebb emberként gyakran tapasztalom, hogy új néven, de új és a mai eszközeink szintjén „revizitálunk”, újra látogatunk egy sor olyan jelenséget, amely ugyan ismert volt, de korábban nem látott vagy tudományos fantasztikumként kezelt aspektusai most merülnek fel és kapnak új jelentőséget.Amiről itt beszélünk, az is ilyen: koncepcióváltás, amely talán először sok vitát kavart, de végül sokakat meggyőzött – a finanszírozókat is –, hogy ezen a nyomvonalon sok gyémánt akad. Az önmagában is nagyszerí, ha a létrejött újat több tudományág is sajátjának tekinti. Kedvelt hasonlatom, hogy a kémiának a XX. század közepe táján bekövetkezett paradigmaváltása a fizika, a kvantummechanika eredményeinek beolvasztása révén jött létre. Szívesen citálom
a Cantata Profana Balázs Béla-i pozitív „konfliktusát”: a szarvassá változott fiúk nem férnek be apjuk kapuján.

A fizikus társadalom tagjaként örülnünk kell annak, hogy a mai kémia ezt az így létrejött diszciplinát tekinti „modern kémiának”. A tudományos anyanyelveket meghatározó tudományoknak – ilyen a matematika, az alkalmazott matematika, a fizika – missziója is, hogy transzszubsztanciálódjanak (bocsánat a profanizációért…). És most jött el az ideje annak, hogy ez az alapvető természettörvényekre támaszkodó kémia és a fizika együttesen oldódjék fel az élettudományokban, majd az orvosi tudományban. A fizika és az anyagok tudománya felől, a míszaki tudományok által is megérintettként szeretném, ha átsütne…, az élettudományok is érettek erre a paradigmaváltásra, mégpedig két ok következtében is.

Az egyik ezek közül egyértelmí és kikövezi az utat a másodiknak: a fizika, illetve a kémia jelenségorientált kutatásainak új felfedezései – a kapcsolódó, kongeniális míszaki kutatások, fejlesztések révén, valamint a számítástechnikai robbanás által megtámogatva – olyan mérési módszerbeli paletta-bővülést, érzékenység-, felbontóképesség-növekedést, valamint az idő- és képi felbontás olyan tökéletesedését hozták és tették elérhetővé (akár vásárolható berendezések képében), amelyek alapvetően és megkerülhetetlenül hozzájárulnak e paradigmaváltáshoz. Az emberi génállomány feltérképezéséről, a Genom projektről1 csak álmodni lehetett volna, ha a félvezető chipgyártás, illetve a molekuláris biológia eszköztárát szinergizáló biochiptechnológia2  és a kriptográfia (titkosírás és -fejtés tudománya) nem válik elidegeníthetetlen, kongeniális részévé az élettudományok által kitízött feladatnak. Elmosódnak a tudományok határai, illetőleg olyan átjárandó határokat fedezünk fel, amelyeknél a partnerek „szomszéd” voltára korábban nem is gondoltunk.
A másik ok inkább ismeretelméleti, de nem kevésbé fontos elem.

A gondolat abban a beszédmódban gyökerezik, amely az élettudományokban – ma teljesen érthetően – megszokott és elterjedt. Rendszeresen hallunk arról, hogy egy élőlény „alkalmazkodik” a környezethez, és ez biztosítja a fennmaradását (illetve a pontos beszédmóddal: a „jobb” egyed marad meg és adja tovább a génállományát). Hogy egy falósejt észleli a „behatolót”, és harcképtelenné teszi – az „élete árán” is. Hogy a bonyolult szervezetekben – mondhatjuk – föderális, sőt, konföderális formában élnek együtt a szerveink, annak elemei, valamint szimbiotikus és nélkülözhetetlen szolgáink, vagy parazitaszerí vendégeink – felvetve akár a kérdést: „Én vajon hány vagyok?”. Tudjuk, hogy ez a beszédmód, az „alkalmazkodás” csak fedőneve valami olyannak, amit még gyakran hiányolnunk kell az élettudományokból. A földi életet ui. – mai tudásunk, azaz minden valószíníség szerint kizárólag – az elektromos kölcsönhatások mozgatják, amelyre minden atomi-molekuláris folyamat visszavezethető, csak a rendszer elemeinek óriási száma minőségileg új megnyilvánulásokhoz vezet.

A fizikus, a kémikus, az anyagtudós is használ fedőneveket akkor, amikor már visszavezette a jelenségek mozgatórugóit az alapvető természettörvényekre. &Iacutegy valóban egy folyamat – diffúzió, fázisátalakulás stb. – termodinamikai elvekre utaló hajtóerejéről, a driving force-ról beszél. Ez az alapkérdés az élettelen világ folyamatainak kutatásában, és jól tervezett kísérletekkel általában meg is válaszolható – gyakran már a mai tudásunkkal is.A biológia történetei fantasztikusak és azért lebilincselők, élvezhetők a nem-szakemberek számára is, mert antropomorf gondolkodással físzerezettek. Példával. Keletkezik, termelődik a szervezetünkben valami – a „hősünk”, például egy fehérje, amelynek „feladata” (sic!) a szervezetben építő funkciót betöltő fehérjemolekulák megjavítása. Hogyan is történik mindez? A mechanizmus értelmében ez a stresszfehérje
1. odaúszik a megjavítandó fehérjéhez (miért?),
2. érzékeli annak hibás voltát (hogyan?),
3. észleli a töltésállapotot (de mivel?),
4. megtalálja a hibát (hogyan?),
5. megjavítja (itt is sok izgalmas fizikai-kémiai esemény zajlik le).
6. „Hősünk" feltehetőleg belepusztul mindebbe.

A fenti, fantasztikusan érdekes eseménysor hajtóerejét a mai gondolkodási keretben nem tudom másnak nevezni, mint valamiféle „missziónak”, vagy tréfásan és végletesen, éppen „csintalanságnak”. Mi másért megy oda a másikhoz, miért nem hagyja azt békében? Milyen energetikai, elektromosan töltött vagy éppen kisült állapotban van, hogy egy kis energiacserére „vágyik”? Nyilván nincs tudata. Mit nyer, illetve veszít ő ezzel?  Mi tehát ezen antropomorfizmusok értelme, oka – a fizikában, kémiában? Mi az a „késztetés”, ami látszólag logikátlan eseményekben csúcsosodik ki és tartja fenn az Életet? Holott tudjuk – és meggyőződésünk szerint – azonosítjuk, vagy megnyilvánulásként vesszük tudomásul, hogy nem lehet másról szó, mint a Coulomb-kölcsönhatásról, illetve annak olyan manifesztációiról, mint a van der Waals-erők, a hidrogénkötés, a di- és multipólus kölcsönhatások stb. rendkívül bonyolult játékáról. A „csintalanság”-típusú fogalmak semmiképpen sem lehetnek „lineárisak”, mert a linearitás leírásába nem fér, hogy egy (kvantummechanikai) rendszer míködésbe jöjjön azért, hogy kimozdítson egy másik rendszert annak metastabil állapotából.

Vagy más területekről. Tudott dolog, hogy az atomi mozgásokat, átrendeződéseket – ezeket nevezzük fizikai, kémiai reakcióknak – a hő gyorsítja (Arrhenius törvénye). Mi a fizika, kémia válasza arra, hogy egyes tengeri élőlények a hideg tengervizet „szeretik”, vagy az emlősök hím reprodukciós szerve nem lehet a hőstabilizált szervezet belsejében? Vagy egy kertembeli rejtély: a „sövényképző” gyertyánbokraim preferáltan egymás felé nőnek. A fajtárs anyagcseretermékei vonzzák-e, vagy annak azonos színe láttatja „üres”, betölthető térnek a másikat, vagy netán a létért való küzdelem „ellenséges” szándékú kiszorítási kísérlete manifesztálódik?

Én valahol azt a szintézist várom, amely feleslegessé vagy éppen megalapozottá teszi az antropomorfizmusokat – és boldog lennék, ha hátralévő életembe beleférne annak megszületése, feltehetőleg csak a legegyszeríbb rendszerekre – sok-sok zseniális, multidiszciplináris gondolkodású kolléga tevékenysége vagy akár csak víziója révén. Ma, szintén a számítástechnika eredményeinek alkalmazásával, már olyan problémákat is vissza tudunk vezetni első elvekre, amelyekre korábban nem gondolhattunk. Biró László Péter barátom belefoglalhatta volna a cikkébe a kiváló informatikus, Márk Géza munkatársunkkal közös eredményünket, amely ab initio kvantummechanikai alapokból kiindulva, az elektronok folyamának mozgóképeként mutatja be egy nanocső pásztázó mikroszkópos vizsgálatát.3
Semmiképp sem állítjuk, hogy a mai biológia problémáinak ilyetén visszavezetése közeli lehetőség, de ha a lehetőségek a címlap problémák mögött kullognak is, a felzárkózás nagy érdek.

A mély megismerés képes csak az elhamarkodott alkalmazások csapdáitól megóvni, illetve a továbblépéshez ötletet adni. Most fogalmazódott meg bennem, mint – születésem óta – „homo faber”-ben az, hogy mi vonz, annak kezdeteitől fogva, a nanotechnológiához. &Uacutegy érzem ugyanis, hogy ez az a tudományág, amelynek gondolkodásmódja közelebb tud vinni a kívánt megértéshez, vagy – egyszer, a jövőben – akár a megoldás kulcsát is képes megadni. A nanotechnológia általam értett lényegéből fakad, hogy ellessük az élő „természettől” a driving force fizikai lényegét. Először modellkísérletekben reprodukáljuk, például pásztázó szondás eljárásainkkal, amikor akár egyetlen atomot megfogva és tudatos helyre helyezve azt, létrehozunk egy funkciót, amely nem létezhetett egy „evolúciós” rendszerben. Majd megkeressük azt az ezzel ekvivalens kölcsönhatásokra képes, komplex rendszert, amely a modellkísérleteink körülményeit „termelés” jellegívé teszi.

 Itt már közel járunk a kolloidkémia módszereihez, és ezért mondják e tudomány mívelői, hogy ők mindig is nanotechnológiát „csináltak”. De egy lényegbevágó különbséggel: a kémia tömbi reakciókat valósít meg, a nanotechnológia filozófiája azonban igényli, hogy vezérelni tudjuk a kémiai reakciók támadási pontjait. Ha az informatikai alkalmazásokra gondolunk: képesnek kell lennünk rendezett, például négyzet- vagy hatszöghálóba szervezett elrendezéseket létrehozni – ez is az „önszerveződések” családjába tartozó folyamat. Ez teszi ugyanis lehetővé, hogy az egyes elemekhez egyedileg, címzetten hozzáférhessünk. Mindezzel a tudással felvértezve azután megpróbáljuk általánosítani a preparatív eljárást akár a szervetlen világ részecskéire is, hogy azokat is hasonlóan rendezhessük el valamilyen funkcionális rendszerré. Nemrégen a gyakorlatban is demonstrálták az elvet, amikor a DNS szálak összekapcsolódásakor sikerült maximum öt rézatomot is közrezáratni!

Ha hozzáteszem azt is, hogy az így előálló „bottom up” („építkező”, Feynman terminológiája) technológia még energiatakarékos is lehet, az netán még abban is segít, hogy az emberi civilizáció üzemmenete közelebb jusson egy, a fennmaradását biztosítani képes formához. A földi, főleg a növényi élet hosszú múltja bizonyítja, hogy a „valósidejíen” (real time) napenergiához kötött „termelés-fogyasztás” (mondhatjuk: „Nap-élet”) tartósan életképes és önfenntartó. Az állati élet már némileg eltávolít ettől az azonnali hasznosulástól és az emberi életforma, pláne a túlszaporodás esetén mindezt a visszájára is fordíthatja. Nos, a Nap-élethez kellene minél inkább közelítenünk, persze a XXI–XXII. századi tudás szintjén, tízmilliárdos emberi létszámmal és a maximálisan megőrzött környezettel, amelynek modell-rendszerkénti fenntartása is életbevágó! Ez a XXI. század legfőbb kihívása.

Nem akarok vakon elfogultnak látszani a nanotechnológia irányában. Azt a látszatot sem akarom kelteni, hogy minden termelési-reciklizációs gond így oldható meg – hiszen vannak területek, például a közlekedés, amely aligha szabadítható meg a problémáktól nanotechnológiai molekuláris gépekkel – hasonlókkal, mint az E. Coli csillója…
Problémának látom azt is, hogy a nanotechnológia „termelése” nélkülözi azt a minőségbiztosítási lehetőséget, amelyet a Total Quality Management (TQM) jelent a mai termeléscentrikus világban, illetve amelyet az élővilágban az evolúció eszközei hordoznak: az önreprodukció még csak megy – ez az, amiről ma a szakma leginkább beszél –, a mutációk (azaz a „majdnem selejt”) fellépte is kézenfekvő. Amit azonban nehezen tudok elképzelni, az a kiválogatódás „gyorsított” változata, amely a TQM-et lenne hivatott helyettesíteni.

Főleg a mindenbe belezavaró, elsősorban termikus zajok minimalizálása látszik – elvileg is – problematikusnak. De hát hadd legyen még mit kutatni egy induló tudományban… Magát a nanotechnológiát, annak indulását az integrált áramkörök fejlődése provokálta: Gordon Moore-nak, az Intel kereskedelmi igazgatójának a hetvenes években készített üzleti terve révén, amely „törvénnyé” érett. A példátlan tempójú miniatürizálás a végéhez  látszik közeledni. Az extrapolálás arra a következtetésre vezet, hogy a 2010-es évtized közepén elérjük az egyedi tranzisztorokra alapozott integrált áramköri koncepció fizikai határait, hiszen nem lesz elegendő atom egy-egy tranzisztorban a kapcsolóhatás létrejöttéhez. Emiatt kezdett a kilencvenes években a szakma azon spekulálni, hogy mi is történik ezt követően, mert a fejlődés lefékeződésére senki sem fogad.

A kérdés időszerísége  nagyon is komoly. Ha a saját élményemből indulok ki, akkor ezt a gondot meg kell osztanom az olvasóval. A Cornell Egyetem Anyagtudományi karán dolgoztam 1986-ban, amikor az ottani National Submicron Facility-ben elkészültek a világ első, 100 nm-es kapuelektródájú tranzisztorainak példányai. &Uumlzemképes azonban alig akadt közöttük. &Oumlssze is hívtak a kollégák egy szík szakértői megbeszélést, hogy ötletekkel segítsük a kihozatal megjavítását. Nos, tessék az évszámra figyelni: a 100 nm-es tranzisztort tartalmazó áramkörök először 2001 táján jelentek meg tömegtermékként. Ha a tizenöt évet, mondjuk tízre lerövidíthetőnek is érzem, mindebből az következik, hogy a 2015 táján lezáródó tranzisztor-korszakot követő új megoldásoknak már laboratóriumi szinten bizonyítottan itt kellene lappanganiuk.

Az efféle meggondolások indították el talán tíz esztendeje a kvantumszámítógép kutatásokat. De nemhogy zseniális trónkövetelő, de potenciális utód is csak a megszokott rendszer „rokonságából” látszik. Azaz csak a bizonyos pontokon megújított integrált áramkör látszik esélyesnek. Például a mai, chipen belüli vezetékhálózat helyett képzelhető el ugyanott a gyorsabb és mégis kevesebb energiát disszipáló optikai jelátvitel. Vagy az ún. egyelektron (sic!) tranzisztor ért el tárgyalható fejlettséget. A kettős állapotokat jól modellező, spinekre alapozó izgalmas megoldások vagy a magashőmérsékleti szupravezetők alkalmazása még nem látható a gyárthatóság horizontján. Kissé ellentmond ennek, hogy éppen a napokban vettem részt egy konferencián, ahol irigyelt, de jó barátaim ismertették egyik kísérletüket, amely a szilícium és annak technológiája alapján – azaz a nyerésre legesélyesebb stratégiával – készítettek modellértékí kvantumkomputert.

Ez a megoldás néhány, egymáshoz kapcsoltan, azaz néhány atomnyi távolságra ionimplantált foszforatom spinjére épít.
A katonai kutatásokban a „megfejthetetlen” titkosírások, a kriptográfia követelményei vezettek el a kvantumszámítógép gondolatához. A méretcsökkenéssel ugyanis eljutunk oda, hogy az áramköri rendszerben a kvantummechanika veszi át a newtoni törvények szerepét. Elsősorban a Pauli-féle kizárási elv a főszereplő. Ez azt mondja ki, hogy egy egységes kvantummechanikai rendszerben, azaz olyan rendszerben, amelyben a részecskék kölcsönhatásban vannak, nem kerülhet két vagy több elektron azonos energiaállapotba (ebbe a spinjeik is beleértendők). Az ilyen egyedi állapotok, az ún. kvantumállapotok szuperpozíciói, azaz kombinációi is lehetséges állapotok. Az ilyen szuperponált állapotokat nevezték el – a digitális elektronika bitjeinek analógiájára – qubitnek.

E káoszból az információ kiolvasása rejtélyét számomra legjobban a fénynek egy résen való áthaladása világította meg: a rés előtt a fényhullámban rengeteg kvantumállapot lappang – mint a qubitben –, a résen való áthaladás után azonban csak egyetlen hullámfüggvény manifesztálódik. Annak ellenére, hogy az indíttatás az integrált áramkörök oldaláról indult és az informatika új korszaka igényli a nanoméretí eszközöket, nagy esély van arra, hogy a kémiai, biológiai alkalmazások jutnak túlsúlyhoz. Ezeknek a tudományoknak az érdeklődési területe, logikája ugyanis közel áll a nanotechnológiáéhoz. Lehet, hogy a századközép informatikája már ilyen rendszerekhez fog hasonlítani? Azaz keverten lesznek benne a Neumann-gép funkciói. A magyarországi nanotechnológiai kutatások indulása seregnyi  példát szolgáltat arra, hogy a hazai kutatógárda jó időben „startolt” egy-egy izgalmas, induló irányra. Sokan, akiknek a kísérleti lehetőségei és elméleti tudásuk ezt lehetővé tette, megindultak ebbe az irányba. Ahogy ez megszokott, a külföldi kapcsolatok is jelentős szerepet kaptak az irányváltásban.                  

Lábjegyzet:
1) A Genom program lényege a következő: (a TIME kissé profanizáló zsurnalisztája szerint: „konyhai mixerrel”) „húslevest” készítettek az emberi DNS-ből, majd a már mindössze tíz–húsz aminosavat tartalmazó törmelékekben, a biochip segítségével meghatározták az aminosavak sorrendjét. És itt jött a kulcsötlet, miszerint a – védelmi célra folyamatosan fejlesztett – titkosírás-fejtés, a kriptográfia segítségével, a dominójáték mintájára próbálgatták, hogy hogyan lehet e törmelékeket egymás végébe visszailleszteni.

2) A kongeniális segédeszköznek, a biochipnek az a lényege, hogy – a félvezető áramkörök gyártására kitalált eljárásokkal – üveglapkán alakítanak ki mozaikot olyan anyagból, amelyre a molekuláris biológia eszköztárából ismert anyagok olyan molekuláit „fixálják”. Ezeket úgy választják, hogy csak bizonyos aminosavakkal, fehérjékkel képesek kapcsolódni (míszaki nomenklatúránkkal: ezek „fehérje-specifikus detektorok”). Az így elkészült „biochipre” rácseppentik a „húslevest” és az egyes detektorok megkötik a nekik megfelelő fehérjetörmelékeket. Ultraibolya fénnyel megvilágítva,  az egyes DNS szekvenciák eltérően lumineszkálnak. Mivel ismert, hogy a chip mely helyén milyen fehérjék vannak, a fénylő rajzolatból következtetni lehet a megkötött fehérjékre stb. A sikerhez a chipeknek az a fő tulajdonsága is kellett, hogy egyszerre sok száz, sőt sok ezer DNS-törmelékben határozható meg az aminosavak sorrendje. A módszer szempontjából – a beképzeltség látszatát is elfogadva – a Genom projekt „csak” egy volt a lehetőségek közül, mert a koncepció átvihető sok-sok anyagra (például „proteomikává” fejleszthető), amelyek például a gyógyszerkutatást felgyorsítva, forradalmasítják azt.

3) Márk Géza I. – Biró L. P. – Koós A. – Osváth Z. – Gyulai J. – Benito, A. M. – Thiry, P. A. – Lambin, P. (2001): Charge Spreading Effects during 3D Tunneling through a Supported Carbon Nanotube. in Kuzmany, H. – Fink, J. – Mehring, M. – Roth, S. (eds.): Electronic Properties of Molecular Nanostructures. AIP Conf. Proceedings, Vol. 591, 364–367.
4) Tanaka, Kentaro –Tengeiji, Atsushi –Kato, Tatsuhisa –Toyama, Namiki – Shionoya, Mitsuhiko (2003): A Discrete Self-Assembled Metal Array in Artificial DNA. Science. 21 February. 299. 1212–1213.

  • A kezdet…
    A nanotudomány alapgondolata nagyon messze nyúlik vissza: Erwin Schrödinger What is Life? (1944) címí dolgozata, James Watson és Francis Crick DNS modellje (1953) már közelített a gondolatvilághoz. A legkonkrétabb váteszi megfogalmazás Richard Feynmantól származik, aki az 1959. december 29-i előadását az American Physical Society közgyílésén There Is Plenty of Room at the Bottom címmel tartotta, amelyben megjósolta az egyre kisebb, önmagukat építő gépek lehetőségét – az egyes atomok mozgatása, rendezése határáig. A nagy gyakorlati lépést Gerd Binning és Heinrich Rohrer alagútmikroszkópja (scanning tunneling microscope, STM, 1981), annak variánsai, az erőmérő AFM (Atomic Force Microscope), a mágneses teret vagy az elektromos kapacitást mikroméretekben detektáló rendszerek megjelenése jelentette. Ezekkel egy időben született Feynman kiváló Quantum Mechanical Computers (1986) dolgozata. Mérföldkő a szén módosulatainak, a fullerénnek, a nanocsöveknek felfedezése is (Richard Smalley, 1985, illetve Sumio Iijima, 1991). Az USA kongresszusa szavazott meg elsőként nagy összegí támogatást (National Nanotechnology Initiative, 2001) és az Európai Unió a 6. Keretprogramban emelte a témát az egyik fő prioritássá. Hazánkban is többen pályáztak sikerrel a témában mind az OTKA, mind az NKFP keretében, mind az EU 5. és 6. Keretprogram keretében. §