Biológia és IT kölcsönhatásai Kömlődi Ferenc Biológia és számítástudomány kölcsönösen és egyre erőteljesebben hatnak egymásra: az élővilágból „ellesett” megoldásokat mind gyakrabban alkalmazzák számítógépes rendszerekre, ugyanakkor az informatika széleskörű elterjedése egyrészt felgyorsítja a biológiai kutatásokat, másrészt lehetővé teszi, hogy jobban megértsük, illetve részben átalakítsuk az élővilágot.
1. Témakör Biológia és IT kölcsönhatása, fokozatos egymásba integrálódása elsősorban három biológiai jelenségcsoportra vonatkozik: • az ember és a főemlősök (neuronális alapú) elmeműködése, • az élőlények (DNS-alapú) működési mechanizmusai, • az élőlények kölcsönhatásain keresztül érvényesülő evolúció. A folyamat egyik oldalát új és a közeljövőt meghatározó tudományterületek (bioinformatika, szintetikus biológia stb.) létrejötte, a másikat a biológiai ihletésű számítástudományi részterületek, például az evolúciós számításokból és mesterségesélet-kutatásokból levont következtetések egyre több fejlesztésben való konkretizálódása szemlélteti. Mivel a jelátvitel és jelátadás élő és élettelen között megvalósítható, a két diszciplína egymásba integrálódása olyan kérdéseket vet fel, hogy miként használjuk fel a szerves anyagokat infokommunikációs célokra, hogyan építsünk belőlük számítógépeket, milyen mesterséges-élő szimbiózisok várhatók, milyen interaktív összjátékok alakulhatnak ki mesterséges és organikus rendszerek között. A legfrissebb (nanotechnológián alapuló)81 eredmények számítógéppé alakítható sejteket, chipbe integrálható DNS-molekulákat, biokémiai alapú számítógépes memóriát vetítenek előre. A két tudományterület kölcsönhatásai (és a mesterségesintelligencia-kutatások fejlődése) felgyorsítják az elmekutatást is: szaporodnak az ember és a főemlősök elmeműködéséről készült számítógépes modellek, míg az elmekutatás számítógépes rendszerekre történő visszahatását elsősorban az agy-számítógép interface-ek szemléltetik. Az emberi testet (és agyat) érintő – gyakorlati – integráció legplasztikusabb alkalmazási példái a mesterséges beültetések (implantátumok) egyre gyakoribb használata, a mikroelektronika és a sejtek összekapcsolása.82
81
A nanotechnológiáról bővebben ld. Nanoelektronika elemzés. Elterjedtek a fülbe operálható protézisek, a krónikus betegségben szenvedők beépített gyógyszeradagolói, míg az agyi implantátumok első alkalmazásai az érzékelési és motorikus funkciókat irányító részeket célozzák meg. A legnagyobb problémát egyelőre az jelenti, hogy az organikus és a művi részek csak rövid ideig férnek meg egymással. A témakörről bővebben ld. IKT implantátumok elemzés.
82
33
1. ábra: Az IT és az élővilág kölcsönhatásai
A biológia infokommunikációs technológiákra gyakorolt hatása két, egymástól jól elkülöníthető szinten valósul meg. Az első, a biológiai indíttatású számítástudomány a természet információkezelő műveleteit, az élőlények működését, az emberi gondolkodást utánozni/másolni próbáló programok, számítógépek stb. fejlesztésére vonatkozik; anélkül, hogy az ilyen új gépek élő anyagot, például tényleges DNS-t tartalmaznának. A második, jelenleg igen kezdeti stádiumban lévő – konkrét biológiai matériát felhasználó – szint83 viszont szerves molekulákat tartalmazó, azok mechanizmusain alapuló rendszerek fejlesztésére irányul. Utóbbi fejlődését olyan tényezők hátráltatják, hogy például nincs még kidolgozva, miként küszöbölhető ki a spontán molekula-visszarendeződés, azaz hogyan tarthatók fenn adott állapotok stb. Így egyáltalán nem meglepő, hogy ma még nincs verseny a biomolekuláris, illetve szilíciumalapú chipek között. A kölcsönhatások, valamint a biológiai és infokommunikációs rendszerek közötti hasonlóságok mellett azonban olyan lényeges különbségek állnak fenn, hogy teljes integrálódásról egyelőre – és valószínűleg hosszú ideig – nem beszélhetünk. Az élőlények - szaporodásra, - önálló, autonóm működésre, - és környezethez való alkalmazkodásra képesek, míg a gépek közül csak egyes robotok kezdik megközelíteni az autonómiát, ám szaporodásról és önálló életről vagy alkalmazkodásról (nyilvánvalóan) ezek esetében sem beszélhetünk.84
83
Ezt a szintet biomolekuláris, vagy egyszerűen csak molekuláris informatikának is nevezik. A kifejezés azért megtévesztő, mert a bioinformatika egyik ágára, a biológiai információt hordozó molekulák (nukleinsavak, fehérjék) szekvenciájának elemzésére szintén használják. 84 A gépek autonómiájával az Autonóm mobil robotok elemzés foglalkozik.
34
2. Jelenlegi helyzet Már a számítástudomány kezdeteinél megfogalmazódott az igény, hogy a gépi rendszereknek valamilyen szinten az élővilág jelenségeit, a természet évmilliók során kialakított és jól bevált „csúcstechnológiáit”, elsősorban az emberi elme működését kellene utánozniuk. A számítógépet többen, először metaforikus, később konkrét értelemben az agy egyfajta kiterjesztésének tételezték fel. Főként mesterségesintelligencia-kutatók körében elterjedt az a vélekedés is, mely szerint az agy bizonyos bemenetekkel rendelkező számítógép85: írunk egy programot, amely feldolgozza, majd kidobja az eredményt. Csakhogy sokkal több egy számítógépnél86, és (részben) ez a tény magyarázza az emberi intelligenciaszintet közelítő gépek létrehozását célzó kísérletek eddig tapasztalt kudarcát. Ellentétben az elmeműködéssel, az élővilág más jelenségeinek, például egyes állatok működési mechanizmusainak, viselkedésének vagy az evolúciós jelenségeknek a szilíciumalapú megvalósítási kísérletei – különösen az 1980-as évek végétől – sikeresebbnek bizonyultak (például gépi látáson alapuló megfigyelőrendszerek, hibáikból tanuló robotok, evolúciós algoritmusok stb.). A biológiai analógiákra épülő fejlesztések (biomimetika) hatására, valamint – és még inkább – a számítógépek drasztikus teljesítménynövekedésének következtében a biológusok érdeklődése e – közelinek éppen nem nevezhető – technológiai és tudományterület felé irányult. Ennek következtében jelenleg már nemcsak a számítástudományban dolgoznak biológiai modellekkel, hanem (a nyilvánvaló és minden más diszciplínára érvényes számítógép-használaton túl) a biológiai kutatás legkülönbözőbb területein alkalmaznak számítástudományi elveket és módszereket. Néhány új tudományág létrejötte és a már meglévők eltolódása esetenként annyira összemossa a határokat, hogy nehéz, sőt, néha lehetetlen eldönteni, mikor beszélhetünk biológiáról, mikor számítástudományról.
2.1 Biológia a számítástudományban 2.1.1 Neurális mesterséges rendszerek Mivel az emberi elme játszi könnyedséggel old meg a legmodernebb digitális számítógépek számára is kivitelezhetetlen feladatokat, hasonló jellegű problémák gépi kezelése csak agyunkhoz, vagy legalábbis annak egyes részeihez hasonló hardver fejlesztésével valósítható meg. A nagy elvárások és a szépen megfogalmazott célok ellenére hardverszinten egyelőre kevés a konkrét eredmény. A legígéretesebb Carver Mead (Kaliforniai Technológiai Intézet) nevéhez fűződik, aki már a nyolcvanas években felismerte, hogy a számítógépekhez használt tranzisztorokkal az idegsejtek elektromos tulajdonságait lemásoló áramkörök hozhatók létre (neuromorphing). Abból indult ki, hogy az idegsejtek elektromos impulzusok sorozata által kommunikálnak, miközben a kémiai jelzések átmenetileg módosítják az adott sejt elektromos jellemzőit. A módosulás hasonló jellegű változásokat indít el az „áramkör” legközelebbi sejtjében. Az egyre bonyolultabb, például a retinát, a hallórendszer bizonyos részeit vagy a hippocampust anatómiai diagrammok alapján modellező áramkörökhöz ma is a Mead által kidolgozott tranzisztoralapú neuronok jelentik a kiindulási pontot.87 Kifejezetten az agyműködés ihlette a gépi tanulásban és következtetésben használt, több évtizedes múlttal rendelkező mesterséges neurális hálózatokat (más néven:
85
Például Paul Allen, a Microsoft társalapítója szerint az emberi agy a jelenlegi leghatékonyabb számítógép. Ugyan analóg és lassabb, mint a digitális szuper-számítógépek, „szoftverszinten” viszont nagyságrendekkel többre képes. 86 Az agykutatásról, agy-számítógép párhuzamokról vö.: Jeff Hawkins, Sandra Blakeslee: On Intelligence: How a New Understanding of the Brain will Lead to the Creation of Truly Intelligent Machines. Times Books, 2004. 87 A neuromorphing jelenleg kb. ott tart, mint kezdeti éveiben a chipkészítés.
35
neuronhálózatokat). Az idegsejtek (neuronok)88 gócainak csatlakozását, és így összekapcsolt csoportjaik néhány tulajdonságát modellező hálózatok alapelve, hogy a számításokat ezek az összekapcsolt elemi feldolgozóegységek végzik, melyek során meghatározó szerepet játszik a közöttük lévő kapcsolatrendszer89, a kapcsolatok súlya. A hálózat általában e csatlakozások súlyának módosításával tanul.
2.ábra: Neurális hálózat egyszerűsített nézete
A mesterséges neurális hálózatok alkalmazási területei, olyan főfunkcióiknak köszönhetően, mint például a mintázat-felismerés (pattern recognition) elvileg korlátlanok: többek között a kép-, arc- és beszédfelismerésben, és az ezeken alapuló (egészségügyi, tőzsdei, biztonsági stb.) rendszerekben, illetve az adatbányászatban hasznosulnak. 2.1.2 Élőlények működési mechanizmusairól mintázott gépek Biológiai minták infokommunikációs technológiákba történő átvételének leglátványosabb példái közé tartoznak a különböző állatokról (pókokról, csótányokról, homárokról, halakról, ormányosokról stb.) mintázott, azokhoz hasonlóan viselkedő robotok, illetve állatközösségek (hangyák, méhek, madarak, farkasok stb.) szociális megnyilvánulásait, például a rajintelligenciát imitáló vagy a multiágens rendszerek.90 A tendenciát előrevetítő korai, a nyolcvanas évek első feléig tartó kutatásokat a küllemükben az emberre inkább csak távolról emlékeztető, mintsem hasonlító robotok határozták meg. Mintegy tizenöt-húsz éve azonban az élővilág más teremtményei iránt szintén egyre komolyabb az érdeklődés. A váltás valószínűleg azzal a felismeréssel magyarázható, hogy az emberi intelligencia gépi leképezésétől nagyon messze járunk, míg az állatok mozgása és egyéb tevékenységeik (relatíve) könnyebben imitálhatók. Az élővilág szolgai másolása helyett a tervezők a természet legjobb „ötleteit”, működési alapelveit építik be a rendszerekbe. A természet kísérletezik, de nem tervez, nem „gondolkodik” előre, véletlenszerűen kialakult megoldásait azonban azonnal leteszteli, és így a megmaradó, működőképes változatok mindig viszonylag jól illeszkednek az adott lehetőségekhez. Nem tűz ki azonban célt, és nem is próbálja végig az összes lehetőséget, és így lehet, hogy egy-egy adott szituációban nem a legoptimálisabbat választja.91 Ez a helyzet 88
Az emberi agy megközelítőleg tízmilliárd neuront tartalmaz. Minden egyes neuron több ezer társával áll kapcsolatban. 89 Innen ered az egyik legnépszerűbb mesterségesintelligencia-technológiának számító neurális hálózatok kevésbé elterjedt „konnekciós hálózatok” elnevezése. 90 Vö. Ágensalapú technológiák elemzés. 91 Például a Wright fivérek ugyan a sólymokat tanulmányozták, de repülőjük mozgását mégsem teljesen a madarak alapján dolgozták ki.
36
az aggyal rendelkező állatok, és természetesen legmagasabb szinten az ember megjelenésével fontos tényezővel, a tervezéssel egészült ki. Paradox módon, a számtalan mérnöki problémát szinte „magától” (azaz próbálkozások útján) megoldó természetnél jobb tervező egyelőre nincs. Technológiáink ugyan egyre hatékonyabbak, de az élő rendszerek komplexitásának teljes körű ismerete és a megfelelő számítási kapacitás híján, az eredmények távolról sem közelítik meg a biológiai modellek és megoldások szintjét. 2.1.3 Evolúció és számítástudomány A biológia és az IT egyik legizgalmasabb és legtöbbet vitatott, legtöbbször megkérdőjelezett határterülete a rendkívül bonyolult folyamatok (fajok evolúciója, önszerveződés, tanulás) számítógépes módszerekkel történő modellezése: az ágenstechnológiához, rajintelligenciához szorosan kapcsolódó evolúciós módszerek/algoritmusok92 és a mesterséges élet (artificial life, ALife). Az 1975-ben bevezetett93 evolúciós algoritmusok a biológiai evolúció által motivált problémamegoldó sémák, ún. metaheurisztikák. Az eltelt több mint harminc év alatt komoly fejlődésen mentek keresztül, sokféle változatuk jött létre, miközben matematikai megalapozásuk is egyre teljesebbé vált. Nagy előnyük, hogy bizonytalan és pontatlan információs környezetben is eredményesen alkalmazhatók, főként rugalmasságuknak és a párhuzamos keresésnek köszönhetően gyakran felülmúlják a hagyományosabb optimalizálási eljárásokat. Indulás
inicializálás / n. generáció (n+1). generáció kiértékelés/ illeszkedés számítása (pl. útidő, költség)
mutáció keresztezés reprodukció
leállás ?
ne m
igen Vége
3.ábra: Egy evolúciós algoritmus egyszerűsített működési elve
Alapötletük a természetből származik: több egyed verseng a szűkös erőforrásokért, és csak a legerősebbek örökíthetik át génjeiket a következő generációba. Az ezeket megvalósító program először véletlenszerűen megoldásokat generál, eleinte valószínűleg nagyon rossz 92
Az evolúciós algoritmusokat számos kutató azonosítja a genetikus algoritmusokkal. Mások viszont négy, egymástól nagyon nehezen megkülönböztethető csoportjukról beszélnek: genetikus algoritmusok, genetikus programozás, evolúciós stratégiák, evolúciós programozás. 93 A darwini evolúció és a genetika alapjait magába építő első változatot John Holland, a szakterület úttörője dolgozta ki. Vö. John H. Holland: Adaptation in Natural and Artificial Systems. University of Michigan Press. 1975.
37
minőségűeket. Egy algoritmus segítségével ezeken módosítást hajt végre, azaz létrehozza a következő generációt, amit megvizsgál, és csak egy részét, a – valamilyen szempontból – legjobbakat tartja meg. Ilyen módon „szaporodnak”, és létrejön egy újabb, az előzőtől kis mértékben különböző generáció. A ciklust addig folytatja, amíg kielégítő megoldást nem talál, vagy esetleg elfogy a megoldásra szánt idő. Nincs garancia arra, hogy a létező legjobb megoldást találja meg, de erre általában nincs is szükség. Egy „még megfelelő” változat ilyen módon általában sokkal kevesebb idő alatt alakul ki (azaz evolválódik), mintha hagyományos optimalizáló algoritmussal dolgozna. Az evolúciós algoritmusokat a számítástudomány legkülönbözőbb területein alkalmazzák: klaszterezés, adatbányászat, szoftverek megbízhatóságának tesztelése, optimalizálási feladatok. Az élet alapvető folyamatait (de nem a földi élővilág fejlődését!) új létformák létrehozása végett számítógépes programokkal modellező mesterséges élet94 a kilencvenes évek eleje óta foglalkoztatja a tudósokat. Egyszerű viselkedésekre és túlélési sémákra összpontosítva, a számítógép memóriájában („in vitro”) lévő primitív – digitális – „sejteket”, az adott környezethez minél tökéletesebben adaptálva, egymással folyamatosan versenyeztetve és szelektálva, evolválva próbál meg önmásolás, mutáció és szintézis útján egyre bonyolultabb lényeket generálni (digitális evolúció). E digitális „lényeknek” ugyanúgy szükségük van „táplálékra”, mint az élőlényeknek, de ebben az esetben ez a „táplálék” számokat jelent: egyesek és zérók véletlen sorából választják ki azt, amelyik pozitív kimenetet eredményez. A „szerencsésebbek” gyorsabban szaporodnak, szimpla replikátorokból generációk sokaságán keresztül bonyolultabb adatfeldolgozókká válnak. A mesterséges élet legfőbb céljai azonban túlmutatnak a digitális entitások létrehozásán. Ezek közé tartoznak az olyan nagy horderejű kérdések megválaszolása, mint például: - robusztus, alkalmazkodó és hibatűrő programok fejlesztése, - az evolúció működési elveinek alaposabb megismerése, - az evolúció egyszerű működésének és az élővilág komplexitásának összeegyeztethetősége. 2.1.4 Élő és élettelen összekapcsolása Szerves és szervetlen matéria egyesítése biológiai szempontból fontos lépés az elektronikus áramkörök és az élő idegrendszer magasabb szintű szintézise felé. Számítástudományi oldalról pedig – egyre többen vélik úgy, hogy – a hibrid neuroelektronikus, azaz az emlősök idegsejt-hálózatainak képlékenységét utánozni igyekvő eszközök a jövő infokommunikációs technológiáinak alapjai közé fognak tartozni. A korábbi neuron-szilícium interface-ek kevés idegsejthez, illetve általában nem egy-egy sejthez, hanem kisebb csoportokhoz kapcsolódtak. A fejlesztések során főként két megközelítést használtak: vagy a biológiát, vagy a félvezető technológiát. Európai kutatók 2006-ban – mesterséges neurális hálózatokat is használva – hoztak létre egy-egy idegsejt 94
A mesterséges intelligenciával nem összetévesztendő diszciplína gyökerei Neumann János sejtautomataelméletéig nyúlnak vissza. A következő állomást John Horton Conway Életjátéka jelentette. Új szakterületről azonban csak Christopher Langton hetvenes évek második felében végzett kísérleteit követően beszélhetünk. Langton eredetileg nem komplex rendszerre vágyott, hanem „csak” egyszerű életre, és legyártotta később elhíresült hurkait (Langton’s loops), melyek generációról generációra öröklődő digitális genetikai információt (genotípus) és a reprodukcióra vonatkozó instrukciókat (fenotípus) tartalmaztak. Q-alakú szerkezetekkel kezdte, sejtautomata-szabályokat alkalmazott rájuk. Megnőtt a végük – a farkuk –, majd szép lassan primitív életformákat imitáló „hurokgyerekek” születtek. Különös jelenségre, az alacsonyabb szintű előzményekbe „nem kódolt”, azokból logikusan nem következő, véletlenszerűen kialakuló – emergens – rendre lett figyelmes. A mozgásban lévő életciklusok tengeri létformákhoz, például korallokhoz hasonló, újabb hurkokból és utódaikból álló kolóniákat eredményeztek. Biológiai jelenségek gépi úton reprodukálhatók – vonta le a következtetést a kutató. (Az emergenciával részletesebben az Ágensalapú technológiák elemzés foglalkozik.)
38
(azaz nem csak csoportok) és a szervetlen szilícium között eredményesen működő interfacet.95 A több ezer összekapcsolt idegsejt feletti kontroll új alkalmazásoknak, például (gyógyszerek tesztelése mellett) az idegsejtek memóriaként történő felhasználásának biztosít zöld utat. Szerves és szervetlen anyagok összekapcsolásának távlati célja elektronikus helyett molekuláris mechanizmusokon alapuló számítógépfajta létrehozása, „amelyben a bitállapotokat (0,1) nem a ’folyik áram – nem folyik áram’ elve alapján érik el, hanem kémiai úton, a molekulák szerkezetének módosításával.”96 Mivel a logikai műveleteket végző kapuk egy – vagy csak néhány – molekulányiak, a párhuzamos, másodpercenként billiónyi műveletet végző gépek mikroszkopikus méretűek lennének.97
2.2 Számítástudomány a biológiában 2.2.1 Bioinformatika A „bioinformatika” szót az 1980-as évek közepén találták ki, és kezdetben meglehetősen tágan értelmezték: minden, amit számítógéppel végeznek, és köze van a biológiához. Az interdiszciplináris tudományterület felvirágzását a számítógépek sebesség- és teljesítménynövekedése tette lehetővé, nélkülük kivitelezhetetlenek lennének a rengeteg adatot generáló kísérletek, a bioinformatika által biztosított háttér révén valósulhattak meg a genomelemzések, az emberi genom szekventálása, a géntérképek.98 De mivel az élettel foglalkozó kutatások által felhalmozott adatmennyiség félévente megduplázódik, a jelenleginél is sokkal nagyobb számítási-tárolási kapacitásra lenne szükség. A tudományterület ma, az ún. „poszt-genom korban” az elsősorban DNS-szekvenciákban és fehérjeszerkezetekben kódolt biológiai információ kezelésére és elemzésére alkalmazott számítógépes módszerekre (speciális algoritmusok, mintázat-felismerés, adatok csoportosítása a hasonlóságok alapján, térszerkezetre vonatkozó predikció stb.) vonatkozik; a biomolekulák felépítésére, szerkezetének előrejelzésére, elemzésére, a rutinelemzések automatizálására, valamint az adatok tárolására, elemzésére terjed ki. Főként három információtárolási mechanizmusra fókuszál: - a DNS és a gének egydimenziós szerkezeti adataira, - a fehérjék háromdimenziós struktúráira, - komplex rendszerekre, azok emergens viselkedésére.
95
A NACHIP projektről bővebben: http://cordis.europa.eu/fetch?ACTION=D&CALLER=PROJ_IST&QM_EP_RCN_A=67046. A kísérleteket kígyóaggyal kezdték, patkányéval folytatták. 96 Horváth László – Pirkó József (szerk.): Informatikai tudástár. Kiskapu, 2001. 97 Szerves anyagok számítógépekké alakíthatóságát jelenleg például az Escherichia coli (E. coli, kólibacilus) baktériumon tesztelik: az egysejtű mikroorganizmus fehérjetermelő folyamatait módosítva, a mikroorganizmus sejtje primitív digitális számítógéppé változtatható. 98 Az adatmennyiség érzékeltetésére egy példa: a Humán Genom Adatbázis például már 2005-ben kb. három terabyte-nyi volt.
39
4.ábra: A bioinformatika interdiszcipilnaritása
Az alkalmazások leginkább a biológiai rendszerek kémiai és fizikai elvek segítségével történő atomi és molekuláris szintű modellezésére, a génszekvenciákban, fehérjékben található minták felismerésére, elemzésére terjednek ki.99 A gének és a fehérjék változó feltételek melletti sejtszintű aktivitásának elemzése, a toxikus eseményekről nélkülözhetetlen információt szolgáltató biomarkerek100 azonosítása, vagy a fehérjeszerkezetek és a fehérjefunkciók meghatározása betegségek diagnosztizálásában, személyre szabott előrejelzések készítésében, páciensek gyógyszerekre történő reakcióinak felmérésében, új gyógymódok kidolgozásában segítik az orvostudományt. A bioinformatika egyik legreménytelibb alkalmazási területe a fehérjék és kölcsönhatásaik hatalmas, a biológiában (a genetika mellett) a legtöbb számítási kapacitást igénylő kutatása (proteomics). A bioinformatikába máris komoly összegeket fektettek, ami az alapvető élő rendszerek szerkezetének, működésének elemzéséhez, és végső soron átalakításához használható egyre hatékonyabb számítástechnikai rendszereket eredményez. Ez a folyamat egy még drámaibb eseménysort, a szintetikus biológia forradalmát készíti elő. 2.2.2 Biotechnológia és szintetikus biológia A biológia tudománya fordulóponthoz ért: eddig az élő szervezetek vizsgálata, működésük megértése volt a cél, most viszont már az is, hogy a „részekre bontás”, az analízis után az összerakással, a szintézissel is kísérletezzünk. Ezt a próbálkozást vetíti előre a „biológiai rendszereket, élő organizmusokat, azok származékait speciális felhasználású termékek és folyamatok készítésére és módosítására használt bármely technológiai alkalmazás”-ként meghatározott101, az utóbbi tíz-tizenöt évben dinamikusan fejlődő biotechnológia.102 A szintetikus biológia (részben) a biotechnológia újraértelmezéseként, bővítéseként is felfogható. Alapvetése, hogy biológiai elemekből, „alkatrészek”-ből új, a biológiai szerkezet hierarchiájának minden szintjén (molekula, sejt, szövet, organizmus) működtethető kombinációk, élő rendszerek hozhatók létre, melyekkel az eddigieknél is jobban kiaknázhatók az élő anyagban rejlő lehetőségek. A már létező elemeket újratervezi, a még nem létezőket –
99
Az IBM bioinformatikai csoportja például létrehozott egy aminosav-kombinációkat tartalmazó „Bioszótárt” (http://cbcsrv.watson.ibm.com/Tpa.html). 100 Orvosi értelemben olyan anyagok, melyek jelenléte a szervezetben meghatározott betegségekre (például az antitestek fertőzésre) utalnak. 101 Az ENSZ által elfogadott Biológiai Sokszínűség Konvenció 1992-es, 2006-ban átdolgozott definíciója. 102 A biotechnológia annyira tág szakterület, hogy jelenének és közeljövőjének vázlatos bemutatása sem fér bele jelen elemzés kereteibe.
40
részben – a természetben ismeretlen tervezéssel hozza létre. A tudományág legfontosabb kísérleti alanyai – egyelőre – az egyszerű, könnyen alakítható mikróbák.103
3. Folyamatban lévő kutatások, fejlesztések A vizsgált terület rendkívül széles, különböző diszciplínákat érint, így egyáltalán nem meglepő, hogy a kölcsönhatásokat kisebb-nagyobb mértékben rengeteg (szinte áttekinthetetlenül sok) projekt szemlélteti. Az alább bemutatásra kerülők annyiban kiemelkedő jelentőségűek, hogy a várható fejlődési irányokat előlegezve összegzik egy-egy kitüntetett fontosságú részterület, technológia jelenét.
3.1 Neuromorphing Kwabena Boahen, a Stanford Egyetem kutatója a kortex szilícium-modelljén (http://www.stanford.edu/group/brainsinsilicon) dolgozik. Új módszert alkalmaz: szoftveres szimuláció helyett az ionok és az elektronok áramlásának közvetlen emulálását tűzte ki célul. Nem több ezer szoftverutasítás fut memóriaregisztereken keresztül, hanem – mint a valódi idegsejteknél – áram. Az első tervben tizenhat chipes áramköri lap szerepel, mindegyik chipen 256x256 neuronnal. A kortex különböző típusú idegsejtjeit utánzó neuroncsoportok eltérő elektromos tulajdonságokkal rendelkeznek. Mindezek mellett – a kortex más-más részeinek architektúráját modellezendő – a sejtek között speciális kapcsolódások is programozhatók. „Különböző elképzeléseket, kapcsolódási mintákat és műveleteket akarunk feltérképezni, de mindez ma még kivitelezhetetlen” – jelentette ki Boahen, aki egyébként olyan chipek létrehozását is tervezi, melyeket más kutatók megvásárolhatnak, és a kortex működésére vonatkozó elméleteiket tesztelhetik velük. Az így szerzett új ismereteket a következő chipgeneráció fejlesztésekor hasznosítanák, ami azért fontos, mert előbb-utóbb nagymennyiségű chip munkáját kell összehangolniuk.
3.2 Evolúciós algoritmusok, mesterséges élet
A MOBIUS104 projekt (University College London, http://www.cs.ucl.ac.uk/staff/P.Bentley/emblem.html) keretében az evolúcióról készült számítógépes mintákat vizsgálják, és ezekből a mintákból kiindulva okos anyagokat (smart materials), eszközöket (3D-s nyomtatók) fejlesztenek. Az új eszközök kialakításával a számítógépes környezetre alkalmazott biológia mérnöki potenciálját, alkalmazásait tesztelik. Tervezett algoritmusuk, a szokásos evolúciós algoritmusok továbbfejlesztett, speciális változata lehetővé tenné, hogy a számítógépek (genotípusok kidolgozásával) különböző területeken felmerülő, komplex problémákra automatikusan találjanak új megoldásokat, illetve az algoritmus anyagtechnológiai alkalmazása önmagától adaptálódó (self-adapting) „okos” anyagokhoz és eszközökhöz vezetne. Ezek az anyagok és eszközök – alkalmasint robotok – egyformán alkalmazkodnának folyamatosan tesztelt különböző környezetekhez: például mozognának, érzékelnének. A floridai Coyote Gulch szoftverfejlesztő és konzultációs cég sikeresen tesztelt ACOVEA105 (http://www.coyotegulch.com/products/libevocosm) optimalizáló, forráskódból ideális gépi kódot eredményező evolúciós algoritmusa, ami megtalálja a GNU fordítóprogram-
103
A leszűkítően extreme genetic engineeringnek is nevezett szintetikus biológiára vonatkozóan: European Commission: Synthetic Biology – Applying Engineering to Biology (Report of a NEST High-Level Expert Group, 2005, ftp://ftp.cordis.europa.eu/pub/nest/docs/syntheticbiology_b5_eur21796_en.pdf). 104 A MOBIUS a MOdelling BIology Using Smart materials (a biológia modellálása, okos anyagokat felhasználva) rövidítése. 105 Az ACOVEA az Analysis of Compiler Options via Evolutionary Algorithm rövidítése (fordítóprogram választási lehetőségek evolúciós algoritmussal történő elemzése).
41
gyűjtemény (GCC) C és C++ kompilátoraira vonatkozó ideális, az adott forráskódból leggyorsabban kivitelezhető programokat eredményező opciókat. A C++ kód egy, evolúciós algoritmusokból álló könyvtár különböző osztályokat (véletlen számok, alkalmassági környezet, organizmusok, kromoszómák, túlélési szelekció, migráció, mutáció, reprodukció stb.) tartalmazó változatán alapul. A populáció folyamatosan, alkalmasság szerint tesztelődik, majd újabb generációk keletkeznek, ahol még magasabb (vagy alacsonyabb) a sikerküszöb, és így tovább, míg elő nem áll az elfogadható, optimálishoz közeli eredmény. Az összes kezdeti populáció véletlenül kiválasztott „acovea-organizmusok” sora, kiegészülve az optimalizáló opciókat reprezentáló egyedekkel. Minél gyorsabb a lefutás, annál „fittebb” az adott opció, és valószínűbb, hogy reprodukálódik –, míg a mutációs ráta általában egy és két százalék közötti. Ha magasabb lenne, az organizmusok túl nagy mértékű változását eredményezné, az algoritmus véletlen kereséssé alakulna át, evolválódás helyett „devolválódna.” Szemben a mesterségesélet-projektek tipikus „egyfajta” populációival, az ACOVEA „lényei” összetett, a genetikus információt a korlátozott migráció következtében megosztó népességet képeznek. A kiindulási biológiai modell az afrikai oroszlánok viselkedése volt, akik általában falkákban élnek, de a hímek alkalomszerűen más csoportokhoz pártolnak. Ezek a ritka esetek egyrészt az információcserét, másrészt azt biztosítják, hogy a csoport egyedi jellege csak alig érzékelhető mértékben módosuljon. Az izolált populációk idővel genetikai egyformaság, stagnálás felé tendálnak, új információt a kereszteződések sem eredményeznek, csak a mutációk, és azok is véletlenszerűeket. A migráció viszont hasznos génekkel kecsegtet, melyek természetes kiválasztódásra alapulva, a „bevándorló” eredeti közegében jöttek létre, fejlődtek ki. Az ACOVEA izolált populáció helyett migrációval, viszont – a túl látványos és gyors változásokat elkerülendő – alacsony migrációs rátával dolgozik. Alapértelmezés szerint negyven-negyven egyedből álló öt populációt evolvál húsz generáción keresztül, miközben számolja, hogy egy-egy megoldásnak az összes egyed/populáció/generáció hány lehetőséget ad. A gyorsaságot garantáló megoldások könnyebben alkalmazkodnak, tehát magasabb számot érnek el, míg a semlegesek átlagosat, a káros hatásúak vagy keveset, vagy nullát. Ilyen módon az ACOVEA által végzett elemzés eredményeként gyorsabb kód hozható létre.
3.3 Szintetikus biológia
Az MIT-ben indult Biobricks projekt106 a sejt belsejének tanulmányozásából kiindulva, kb. négyszáz „biológiai építőkocka” (egyfajta eszközkészlet) fejlesztését tűzte ki célként. A jövőbeli programozható organizmusok létrehozásához nélkülözhetetlen – folyadékkal megtöltött üvegcsékben tárolt – alapelemek gondosan kiválasztott, ismert DNS-részeket is tartalmaznak. Képesek utánozni a hagyományos számítógépes áramkörök működését. Önmagukban primitívek, csoportosan viszont magasabb szintű feladatokat hajtanak végre, például logikai kapukként az egyszerű Boole-féle műveleteket kivitelezik: AND, NOT, NOT AND, OR, NOT OR stb.
A projekt vezetői különbséget tesznek a genetikai és a biológiai tervezés között: előbbi a már létező gént próbálja egyik organizmusból a másikba juttatni, utóbbi a DNS összes bitjét irányítható, működésüket előre jelezhető módon specializálja: meghatározza formájukat, funkciójukat. Ezzel megoldanák a mikroelektronikában a miniatürizáció problémáját: míg a szilíciumatomok előbb-utóbb pontatlan elhelyezése a chipben a rendszer működését veszélyezteti, addig a biológiai folyamatok több millió éve pont azokra a helyekre illesztik az atomokat és molekulákat, ahova kellenek. A génállomány szekvenciáinak leírásában oroszlánrészt vállalt107 kutató nevét viselő J. Craig Venter Intézetben a „sejteltérítés”-en túl, mesterséges élőlények, új, önálló és egyedi organizmusok – ma még csak baktériumok – előállítását tűzték ki célként. 2004-ben kereskedelmi forgalomban kapható vegyszerekből létrehoztak egy életképes, csak baktériumokra ártalmas szintetikus vírust. 2007. júniusban jelentették be, hogy sikeres genom-átültetéssel, egy baktériumfajtát (Mycoplasma capricolum) egy másikká (Mycoplasma mycoides) alakítottak át. Több éve a mindössze 517 gént tartalmazó Mycoplasma genitalium 106
Vö. a projektből létrejött alapítvány (BioBricks Foundation, BBF) tevékenységéről: http://www.biobricks.org. A világon elsőként Venter és munkatársai (http://www.tigr.org) térképezték fel egy élőlény, a Hameophilus influenzae baktérium teljes génkészletét. Az utóbbi években mintegy hatmillió bakteriális gént azonosítottak, amelyek közül hozzávetőleg húszezer alkalmas hidrogéntermelésre.
107
42
az egyik legfontosabb kísérleti alanyuk, rajta keresztül igyekeznek felderíteni az élő rendszerek működéséhez szükséges alapokat. Minimális számú,de az élet fenntartásához elegendő gént nyernek ki belőle, amit a későbbiekben a szintetikus biológia számára fejlesztői platformként szolgáló génkészletté alakítanak. A legradikálisabb elképzelések a természetes evolúció anyagkészletén túllépő, olyan teljesen új tulajdonságokkal rendelkező fehérjékkel működő rendszerek kidolgozására vonatkoznak, amelyeket az élővilágban eddig ismeretlen kémiai anyagokkal, például a természet által használt húszon kívül előállítható, több ezer aminosav valamelyikével hoztak létre.108
3.4 Bioinformatika Az IBM 1999-ben bejelentett masszívan párhuzamos Blue Gene (http://www03.ibm.com/servers/deepcomputing/bluegene.html) szuper-számítógép sorozatának egyik legfőbb rendeltetése a rendkívül komoly kapacitást igénylő bioinformatikai adatfeldolgozás, biomolekuláris jelenségek szimulálása. A sorozat első darabja, a 2004 óta működő Blue Gene/L sebessége túlszárnyalja a 200 teraflopot (10ˆ12 másodpercenkénti matematikai művelet). A Blue Gene/L „testvérgépének”, a Gene/C-nek a munkába állítása egyelőre késik. 2007. júniusban jelentették be a Blue Gene második generációjának első számítógépet, a három petaflop (10^15) sebességre képes Blue Gene/P-t. A 2010-2012-re tervezett tíz petaflopot a majdani Blue Gene/Q fogja elérni.
4. A várható fejlődés A biológia és számítástudomány kölcsönhatásának jelenségei rendkívül nagy horderejűek, így a témakörben számos előrejelzés készül. A prognózisokat illetően élesen el kell különíteni a tényleges adatokon, a jelenlegi szoftvertechnológián és folyamatban lévő projekteken alapulókat a főként hosszútávú, kizárólag kvantitatív jelenségekből (mikroprocesszorok teljesítményéből stb.) kiinduló, de a „szoftvert” általában figyelmen kívül hagyó vízióktól. Elemzésünkben kizárólag az előbbiekre támaszkodunk.
5. ábra: Várható fejlődés (2008-2018)
4.1. Elmekutatás és IT 108
Például Lei Wang (Salk Intézet, La Jolla, Kalifornia (http://www-biology.ucsd.edu/faculty/leiwang.html) az E. coli génkészletében átállított egy elemet, ami egy új aminosav megjelenéséhez vezetett.
43
Az emberi elme információfeldolgozásának, döntéshozásának jobb megértése eddig is fontos változásokat idézett elő a hardverfejlesztésben, nagyméretű komplex hálózatok tervezésében és a programok problémakezelési módjában is. A jövőben még markánsabb lesz a hatás – és a hatás mellett a visszahatás is: a biológiailag inspirált informatika az idegsejtek és agyterületek közötti kommunikáció, és az elmeműködés egészének pontosabb megismerését teszi lehetővé. Az idegkutató Guosong Liu (MIT) nagy horderejűnek tűnő, a számítógépes adatfeldolgozásra minden bizonnyal kiható felfedezést tett közzé 2004-ben: míg a számítógépek a zérók és egyesek bináris rendszerében kezelik az információt, az idegsejtek hármas (trináris) kódokban (zérókban, egyekben és mínusz egyekben) kommunikálják elektronikus jelzéseiket. A feldolgozás során további interakciók mennek végbe, például két jelzés összeadódhat (1+1=2), de semlegesíthetik is egymást (1+-1=0), így az információ különböző részei összekapcsolódhatnak, megkísérelhetik, hogy egyik a másik fölé „kerekedjen.” Felmerült, hogy esetleg ez a hármasság biztosítja, hogy az emberi elme – ellentétben a számítógépekkel –, ha nagyon koncentrál valamire, minden más (környezeti) információt ignorál. Liu másik fontos meglátása, hogy az agyi áramkörök működésének egyik fontos eleme a „huzalozás”, a pozitív, (izgalmi) és a negatív (tiltó) huzalozásért felelős idegsejtek elrendezése. Az idegsejtek számos kicsiny egyedi feldolgozómodult tartalmaznak, melyek mindegyike izgalmi és tiltó bemeneti jeleket gyűjt össze. Ha a két bemenet-típus pontosan van összekapcsolva, valamennyi modul rendkívül hatékony feldolgozómunkát végez. Mihelyst befejezték a feldolgozást, a modulok a sejttest felé továbbítják a jelzéseket, ahol az összes jelzés integrálódik és áthalad. Az idegsejt-modulok létezése alapkérdéseket feszeget: mi az agy „tranzisztora”, legfontosabb feldolgozó egysége? Sokáig azt feltételeztük, hogy maga a (többi sejt jelzéseit összegyűjtő és feldolgozó) idegsejt. Viszont ha az összes sejt több száz, egymástól függetlenül számítási műveleteket végző modulból áll, a számítások központjának az idegsejtnél sokkal kisebb valaminek kell lennie. Ezek a modulok – parányi „mikroprocesszorok” – valószínűleg egyfajta beépített intelligenciával rendelkeznek, ami lehetővé teszi a huzalozási hibák és az áramköri problémák kezelését: ha bármelyik kapcsolódás megszakad, azt helyettesítendő, a régi helyén automatikusan újak formálódnak. Ha a pozitív kapcsolódások túlsúlyba kerülnek, a negatívak azonnal helyreállítják az egyensúlyt, és zavartalanul folytatódhat az információtovábbítás. Ez az „egyensúlyozó” képesség valószínűleg komoly szerepet játszik a változó feltételekhez való alkalmazkodásban. A hármas kódban történő információfeldolgozás és az idegsejt szintje „alatti” modulok szerepének felismerése – elvileg és optimista előrejelzések szerint – tíz éven belül teljesen új, a binárist felváltó hármas rendszeren alapuló, a felesleges információt ignoráló hardverhez és szoftverhez vezethetnek.
4.2 Szerves számítógépek Meddig tart a szilíciumalapú számítógépek egyeduralma? Mi váltja fel őket, amikor – esetleg tíz-tizenöt év múlva109 – már nem lesz hova miniatürizálni, és a teljesítménynövekedés sem tartható tovább? A kérdés(ek) nem kifejezetten biológiai indíttatású(ak): az agy „hardvere” már évmilliók óta lényegében változatlan, tehát az analógia fenntartása nem indokolná a változást… Csakhogy a válaszok (részben) ismét az élővilágban keresendők. Az egyik lehetséges megoldás egyrészt a hagyományos informatikai áramkörök jellegének megőrzése, másrészt a szilícium méretéből adódó problémák felszámolása, azaz a klasszikus 109
A Moore törvény jövőjéről megoszlanak a vélemények: egyesek szerint tíz év, mások szerint sokkal hosszabb idő múlva veszíti el érvényességét. Vö. Korlátlan sávszélesség és számítási teljesítmény elemzés.
44
architektúrához adott virtuálisan (majdnem) végtelen gyorsaság. Az első ilyen hibrid jellegű, molekulákból álló logikai áramkörökön alapuló számítógépek elméletileg már 2010 előtt legyárthatók. Egy másik alternatíva a (hatalmas mennyiségű kódolt információt tartalmazó) DNS.110 A DNS-kombinációk módja elvben kiszámítható, előre jelezhető. Ugyanakkor egy kávéskanál nagyjából milliárd DNS-darabkát tartalmazhat. Ha ezeket a darabkákat processzorokká alakítjuk át, elvileg több milliárd művelet szimultán elvégzésére képes parányi (nanoszintű) számítógép állítható munkába.111 Azaz, a DNS-számítások – azzal, hogy a sok különböző DNS-molekula adta lehetőségek egyszerre, és nem külön-külön számíthatók ki – alapvetően hasonlítanak a párhuzamos számításokra (amelyeknél azonban szűkebb kört képviselnek).
6. ábra: DNS-számítógép működés közben112
Az elmélet gyakorlatba ültetésétől (mindennapi alkalmazásától) azonban még távol járunk,113 sőt, minél komplexebb a DNS-szerkezet, annál több a számítási hibalehetőség. A természetben a hibák mutációt eredményeznek, az állandó javítások pedig az élő sejtekben történnek. Ezzel szemben, az elméletben felvázolt – nem általános, hanem nagyon speciális rendeltetésű – DNS-alapú számítógépek ma (egyelőre) képtelenek lennének a hibák korrigálására. A válaszok elemzése sok időt vesz igénybe, hiába jutunk gyorsan hozzájuk, ha esetleg hetekig kell keresnünk a helyes megoldást. Első alkalmazásaik a környezet kórokozó ágenseit azonosító bioérzékelőknél, az emberi sejtben végbemenő biokémiai jelenségek vizsgálatakor és genetikai kutatásoknál valószínűsíthetők. Az ideális alkalmazás a nanotechnológiai elképzelésekben gyakran felvázolt ún. „sejtdoktor” (doctor in a cell) lenne: a láthatatlan számítógép az emberi testben, 110
Létezik még két, a vizsgált témakör szempontjából kevésbé releváns alternatíva: a párhuzamos architektúrák és az azokra történő szoftverfejlesztés, valamint a kvantumszámítógép. 111 A DNS-számítógép elvét, az utazó ügynök klasszikus problémájára keresve megoldást, Leonard Adleman (Dél-kaliforniai Egyetem) rakta le 1994-ben. Miként jutunk el a leggyorsabban A városból B városba meghatározott mennyiségű városok között, úgy, hogy egy várost csak egyszer érinthetünk? Hogy gyors választ kapjon, két lehetőség közül dönthetett. Vagy nagy mennyiségű hagyományos számítógépet dolgoztat párhuzamosan, vagy DNS-számítógépet „tesztel”. Az utóbbit választotta. Pár kávéskanál DNS szimultán, néhány másodperc leforgása alatt generálta az összes lehetséges megoldást. Azonban a jó és rossz válaszok elkülönítése egy hétig tartott. 112 A számítógép működéséről: http://www.smalltimes.com/articles/article_display.cfm?Section=ARCHI&C=Bio&ARTICLE_ID=267662&p=1 09. 113 Az izraeli Weizmann Intézetben, 2001-ben hozták létre a világ első (inkább demonstrációs célú, az elmélet kivitelezhetőségét bizonyító), csak DNS-ből és enzimekből álló DNS-számítógépét. A 2004-es változat már a számítógép működéséhez szükséges összes „üzemanyagot” is tartalmazta.
45
sejtjeinkben tevékenykedne. Adatokat elemezne, betegségeket diagnosztizálna, végül – például a megfelelő molekulák egyesítésével – gyógyítana.
4.3 Evolúciós modellek Az élő természet legfőbb rendezőelvének mesterséges környezetben történő alkalmazásával intelligensebb gépi rendszerek hozhatók részre, amelyek hatékony működéséhez viszont egyre nélkülözhetetlenebb lesz a terebélyesedő (biológiai) adatbázisokból kinyerhető információ. A bioinformatika ütemes fejlődésével felgyorsuló biológiai adatkinyerés és feldolgozás igen pozitívan hat vissza a számítástudományra. A kölcsönhatások a jelenleg is használt, de egyelőre inkább kísérletinek tartott megoldások szélesebb körű alkalmazásához vezetnek: a hagyományos tervezési módszerek mellett és helyett hardver- és szoftverszinten egyaránt elterjednek az evolúciós technikák, például elektromos áramköröket hoznak létre velük, evolúciós algoritmusokkal optimalizálnak, vagy az evolúciós jellegű szoftverfejlesztés során az apró változtatásokat, előrelépéseket azonnal tesztelik. 4.3.1 Rendszerevolúció Olyan „önmagukat tervező” rendszerek fejleszthetők, amelyek akkor is végrehajtják feladataikat, ha a rendszert működtető embernek fogalma sincs, mitévő legyen, mihez kezdjen. A tervezés és a kivitelezés során azonban számos bonyolult, sürgősen megoldandó problémára kell feleletet találni. Az evolúciós elvek alkalmazását jól szemléltető áramkörpéldából kiindulva (azt általánosítva), ezek a következők: - Milyen típusú evolúciók mennek végbe a rendszerben? - Mennyire tolerálják a hibákat, a környezet változásait és a fejlődésüket alakító egyéb tényezőket? - Melyek az ideális alapkomponensek egy-egy feladat kivitelezéséhez: alapkomponensek vagy magasabb szintű funkcionális eszközök? - Milyen típusú egymással összekapcsolódó architektúrák illenek leginkább az evolúciós módszerekhez? - Milyen relatív hatást fejt ki egymásra a konfigurálandó hardver és az alkalmazott evolúciós algoritmus? - Kielemezhetők-e úgy a komplex, evolvált rendszerek, hogy biztosak lehetünk hibátlan működésükben kritikus alkalmazásukkor? Az eddigi kísérletek pozitív válaszokat adnak: a fenti példánál maradva, az evolúciós folyamat többféle áramkör-elemmel és egymáshoz szorosan kapcsolódó architektúrákkal is megvalósítható.114 4.3.2 Élő gépi rendszerek felé A példa öntervező hardvere sokkal mélyebb kérdést is felvet: mikor és mitől válhat élővé egy gépi rendszer? Akkor, ha eléri a komplexitás egy bizonyos szintjét, azaz - önteremtő (self-creating), melyen az összetevők replikációját (például másoló szintézisét), - önszervező (self-organizing), melyen a komplexitásnak a magas szintű információfeldolgozás és a rendszer összetevőinek interakciói általi fokozásával az alkalmazkodás lehetővé tételét, - és önfenntartó (self-sustaining), melyen a környezetből felvett energiák fokozatos elhasználását értjük. 114
A hardver-evolúcióban, evolúciós elektronikában rejlő lehetőségeket jól szemléltetik Paul Layzell (Sussex Egyetem, Egyesült Királyság) kísérletei: http://www.informatics.sussex.ac.uk/users/adrianth/index.html.
46
Az elektronikus rendszerek ugyan jók az információfeldolgozásban, viszont önmaguk újrateremtésére – önreplikációra – csak programok (például számítógépes vírusok) képesek. A jelenség rendszerszinten még kivitelezhetetlen. Az önfenntartás azért okoz problémát, mert amellett, hogy a rendszerek kizárólag egyfajta, szigorúan meghatározott energiát fogyasztanak, nem önállóan jutnak hozzá ahhoz. Hiába dolgozzák fel az információt, az élőknél kevésbé árnyaltan, kevésbé sokoldalúan teszik. Az önfenntartás kezdetlegesnek is alig minősíthető szintje a szilícium és a szén közötti különbségekkel magyarázható. A szén rugalmasabb, könnyebben egyesül más atomokkal, több szerkezete ismert. Az elektronikus áramkörökben kivitelezett rendszerekhez nem kapcsolódnak hasonló molekuláris szerkezetek. A rajtuk futtatott, az élet alapfunkcióit megvalósító szoftverek idővel elérhetik a komplexitás nagyon magas szintjeit, ahonnan viszont csak két módszerrel lehetne továbblépni: 1. mesterséges rendszerek és szénmolekulák teljes integrációjával, 2. a szén rugalmasságának, az élő rendszerek molekuláris működésének mesterségesekre történő alkalmazásával. Egyelőre a második megoldás, a biológiailag inspirált informatika terjedt el. Annak egyik ága, a mesterségesélet-kutatás viszont egyre több átfedést, párhuzamot mutat a szintetikus biológiával. Olyannyira, hogy idővel az utóbbi részterületévé válhat.115 4.3.3 Szintetikus biológia A szintetikus biológiában is érvényesül a felülről lefelé (top-down) és az alulról felfelé (bottom-up) megközelítés, valamint ideális esetekben a kettő együttes használata. Az előbbivel a különböző összetevőket létrehozó evolúciós elveket kutatják, és próbálják új típusú mesterséges komponensek alapjait adó, a sejt alatti modulokat is magukba foglaló nanoszerkezetekre alkalmazni. Az utóbbi építőkockákból indul ki: speciális sejtfunkciókat azonosítanak és kódolnak DNSsorokban. Ezeket kombinálva egyre összetettebb funkciók jönnek létre, melyek egy ponton elérhetik azt a szintet, amikor – a várakozások szerint – a rendszer már önfenntartásra képes. Közben a sejt növekedését és viselkedését módosító jelzőrendszereket próbálják azonosítani. A közeljövő legfontosabb tendenciája, hogy folytatódik a rendszerek alapjaként funkcionáló biológiai építőkockák fejlesztése és tesztelése. A jól irányítható, programozható és robusztus rendszerek - bemeneti részeinek érzékelniük kell a környezetet: biológiai jelzések „vétele”és szintetikus rendszer által is feldolgozható formátumokká alakítása, - belső részeinek egy külön alrendszerben kell feldolgoznia a megkapott biológiai információt, - kimeneti részeinek a belső alrendszer és a rendszer belső (endogén, a szervezetből kivezető) biológiai komponensei közötti interface-ként kell működnie. Miután mindezt sikerült kivitelezni, következő feladat az integráció hatékonyabbá tétele lesz. Ehhez egyrészt a szintetikus részeknek teljes összhangban kell működniük a többi endogén biológiai komponenssel, másrészt az adott sejtet és moduljait úgy kell módosítani, hogy új tulajdonságokkal és funkciókkal rendelkezzen. Az „építőkockák” szabványosítása116 várhatóan a szintetikus biológia iparrá alakulásához, valamint – jelenleg még nem létező – specializációhoz vezet: a komponensek fejlesztői molekuláris architektúrák, interface-ek tervezésére, míg a komplex rendszerek létrehozói a kész komponensek összeszerelésére szakosodnak. 115
A Synthetic Biology – Applying Engineering to Biology EU-tanulmány kidolgozásában közreműködött Hubert Bernauer, a német ATG:Biosynthetics (Freiburg) kutatója szerint a mesterséges élet már ma is a szintetikus biológiához tartozik. 116 A szabványosítást a BioBrick Foundation már megkezdte.
47
5. Befolyásoló tényezők Biológia és IT kölcsönhatásainak legfőbb hajtóerői technológiai jellegűek. Az egymásba integrálódás folyamatát a két tudományterület mellett elsősorban a biotechnológia és az anyagtudomány, azon belül a nanotechnológia fejlődése befolyásolja. Míg a gazdasági tényezők egyértelműen serkentik az integrációt, a társadalmiak pozitív és negatív hatást egyaránt kifejtenek.
7. ábra: Befolyásoló tényezők
5.1 Technológia A négy befolyásoló technológiai tényező (számítógépek teljesítménynövekedése, mesterségesintelligencia-kutatások fejlődése, biotechnológia térhódítása, nanotechnológiai megoldások terjedése) hatása pozitív. 5.1.1 Számítógépek teljesítményének növekedése A számítógépes kapacitás növekedése és az elosztott, gridszerű rendszerek kialakulása alapfeltételei az elképesztő mennyiségű biológiai adat pontos, részletes feldolgozásának. 5.1.2 Mesterséges intelligencia A mesterségesintelligencia-kutatásban elért eredmények, a részterületek közös nevezőre hozása iránti igény egyre gyakoribb megfogalmazása, az emberi agyműködés megértéséhez vezető technológiai indíttatású felismerések (masszív párhuzamosság, ontológiák szerveződése stb.) szintén fontos hajtóerők. (A hatások ezúttal is kölcsönösek: az elmekutatás és az idegtudományok folyamatosan inspirálják az MI-hez tartozó tudományágakat.) 5.1.3 Biotechnológia
48
Az infokommunikációs technológiákat használó modern117 biotechnológia egyrészt megváltoztatta a gyógyászatot és a mezőgazdaságot, másrészt biotechnológiai előzmények nélkül sem a bioinformatika, sem a szintetikus biológia nem jöhetett volna létre. 5.1.4 Nanotechnológia Az anyagtudományok oldaláról a nanotechnológia a legfontosabb befolyásoló tényező. A medicinát forradalmasító, emberi testbe juttatott gyógyító nanorobotok elterjedése ugyan még távoli jövő, viszont a nanoméretű gyógyászati eszközökről bebizonyosodott, hogy kivitelezhetők.118 A technológia fejlődése kihat a tranzisztorokra is: az atomi szinthez érve, ahol a tranzisztorok csak néhány atomnyiak, a jelenlegi gyártási technikák és anyagok nem működnek többé.119
5.2 Társadalom A vizsgált jelenséget társadalmi szempontból elsősorban három tényező, a még korszerűbb és hatékonyabb gyógykezelés iránti igény pozitívan, az élőlények tervezésével szembeni morális ellenállás és a globális hatásoktól való félelem negatívan befolyásolja. 5.2.1 Hosszabb élet Az élet meghosszabbítása a Homo sapiens ősi vágya. A természettudományok és különösen az élettudományok fejlődése, valamint a XX. század technológiái (műtéti-vizsgálati eszközök stb.) jelentősen növelték a születéskor várható élettartamot. Biológia és IT kölcsönhatásainak következtében azonban – megfelelő gyógykezeléssel (személyre szabott „okos” gyógyszerekkel, implantátumokkal stb.) – lehetőség nyílik a sokkal drasztikusabb élettartamnövekedésre (például matuzsálemi életkorra)120 és azzal párhuzamosan az életminőségjavulásra is. 5.2.2 Morális ellenállás Mesterséges és élő szintézise az első ilyen jellegű kísérletek óta élénk negatív társadalmi visszhangot váltott ki.121 Az élőlények művi úton történő tervezésével és a nagy mennyiségű idegen anyag emberi szervezetbe juttatásával szembeni kétely, ellenállás tudományos mellett morális eredetű. A világméretű tiltakozás egyik oka, hogy a szintézisre irányuló törekvések általában összeegyeztethetetlenek a Föld lakosságának jelentős részére komoly hatást gyakorló vallásokkal.122 De az emberi méltóság alkotmányban szereplő joga önmagában is kérdőjeleket tesz a korlátok nélküli biológiai kísérletek mögé.
117
Modern biotechnológiáról kb. 1970 óta beszélhetünk. Előtte csak élelmiszer-feldolgozást és mezőgazdasághoz kapcsolódó ipari tevékenységeket értettek rajta. 118 Vö.: Robert A. Freitas Jr.: Nanomdeicine I-III (http://www.nanomedicine.com). Landes Bioscience, 1999, 2003, 2007. 119 Fenntartva a mai fejlődési ütemet, a következő évtized első felében a szilícium mellett új – „egzotikus” – alapanyagokra, például szén nanocsövekre is szükség lesz. 120 Transzhumanista elméletek szerint az élet drasztikus meghosszabbítása csak az első lépés a fizikai halhatatlanság felé. Egyelőre a legtöbb futurológus úgy véli, hogy 2050 környékén az emberi életkor felső határa százötven évre, 2100-ban kétszázra, esetleg többre tolódik ki. A matuzsálemi korra vonatkozóan vö. az IFTF (Institute for the Future, http://www.iftf.org) Demographics: Extreme Longevity IFTF (SR-1064) tanulmányát. A transzhumanista halhatatlanság-elképzelésekről a World Transhumanist Association honlapján (http://www.transhumanism.org) található bőséges irodalom. Magáról a transzhumanizmusról az IKT implantátumok elemzésben olvashatunk. 121 Ld. Genetikailag módosított (GM) növények, őssejt-kutatás, klónozás stb. 122 A történelmi isten-kinyilatkoztatás három nagy világvallása (judaizmus, kereszténység, iszlám) egyértelműen és szigorúan elutasító, az örök világtörvény világvallásai közül a buddhizmus és a taoizmus megengedőbb álláspontot képvisel.
49
Mivel rendkívül érzékeny kérdésekről van szó, szakszerű, az összes álláspontot figyelembe vevő, a kutatásokat értelmes, biztonságos, hosszabb távon is fenntartható keretek közé terelő, azaz egyaránt korlátozó és serkentő jogi szabályozásra lenne szükség. 5.2.3 Globális hatásoktól való félelem Az infokommunikációs és a biológiai technológiák együttes (például a szintetikus biológiában történő) felhasználása a sci-fi irodalomban és filmekben már régóta és gyakran megírt/megjelenített világméretű változásokhoz vezethetnek. Nem ismerhetjük az összes következményt, nem tudjuk, hova vezetnek az esetleg rosszul „programozott” sejtek (például gyorsan terjedő, halálos világjárványok veszélye), mennyire őrizhető meg az élővilág sokszínűsége (biodiverzitás). A mindezektől való indokolt, bizonyos esetekben viszont túlzó félelem komoly korlátozó tényező lehet – arról nem is beszélve, ha ilyen hatások ténylegesen be is következnek.
5.3 Gazdaság Mivel jelenleg a (biológiához hagyományosan és értelemszerűen kapcsolódó) gyógyszeriparban, a gyógyászatban és a mezőgazdaságban mutatkozik a legnagyobb kereslet a biotechnológiai termékek és a bioinformatikai eredmények hasznosítása iránt, e területek húzóereje a három legfontosabb befolyásoló gazdasági tényező.
6. Várható hatások A jelenség az IT keretein túlmutató általános jellege miatt más területeken is érvényesülő fontos technológiai hatásokat fejt ki. Társadalmi következményeit teljes mértékben még nem tudjuk felmérni, az azonban egyértelmű, hogy drámaiak (lehetnek). Gazdasági szempontból ellentmondásos a helyzet: a következő tíz évben alig lesznek érzékelhető nyomai, utána viszont meghatározó hajtóerővé válhat.
6.1 Technológia A két tudományterület egymáshoz közeledése az IT mellett a medicinát befolyásolja a legegyértelműbben. A fizikára és a kémiára szintén ösztönzően hat, de az ezen a két területen bekövetkező változások a (biológiához, IT-hoz, orvostudományhoz) nagyon szoros szálakkal kapcsolódó nanotechnológia körül kristályosodnak ki. 6.1.1 Infokommunikációs technológiák A technológiai változás az IT alapjaira vonatkozik, nem csak egy területén megy végbe, hanem – közvetlenül-közvetve – az egészet érinti, így a hatások (és az alkalmazások) is szerteágazók: új elveken alapuló komplex rendszerek, számítógépek jelennek meg, a programok problémakezelésében eddig nem alkalmazott megoldások érvényesülnek. Felvetődik az a kérdés is, hogy az új megközelítés hogyan viszonyul a nem-biológiai indíttatású, az élővilágban nem létező megoldásokat (mint például a vezeték nélküli kommunikációt123) használó informatikához. Valószínűsíthető, hogy a kettő probléma nélkül megfér, kiegészítik egymást, ugyanakkor egyre több, az élővilágban eredményes alternatíva merül fel a nem-biológiaiak helyettesítésére (például multi-ágens rendszerek alkalmazása hálózati útvonalválasztáskor stb.). 6.1.2 Medicina
123
Aminek a vitatott, tudományos hitelességgel még nem bizonyított telepátia vagy az egyelőre kivitelezhetetlen teleportáció lennének az élővilágbeli megfelelői.
50
A jelenség egyik legígéretesebb következménye bio- és orvosi informatika összekapcsolódása (biomedical informatics, BMI124) , melynek lényege, hogy a (molekuláris szinten) kutatók és az orvosok „közös nyelvet beszéljenek”: jelenlegi szakértelmük más területeket érint, adatbázisaik a munka számítógépesítése ellenére sem kompatibilisek egymással. A két információs rendszer közös alapjainak megteremtésével lehetővé válik a laboratóriumi megfigyelések hasznosulása az orvosi gyakorlatban. A közös nyelv csak a kezdet: az informatikai rendszerek összekombinálását genetikai anomáliákkal viszonylag könnyen azonosítható betegségeken túl, bonyolultabb kórok esetében, azok sok összetevős mechanizmusainak (életmód, környezet, szerencse stb.) feltárásakor szintén eredményesen kellene alkalmazni. A BMI a majdani – infokommunikációs technológiákat (például mikro-elektromechanikai rendszereket, MEMS), biológiát és molekuláris/atomi szintű anyagok felhasználását egyesítő – nanomedicina számára „készíti elő a terepet.” Ezen a területen az egyik legjelentősebb áttörését az emberi szervezeten belüli gyógyszerellátást biztosító, genetikailag átalakított sejtek, illetve a véráramkörben ténylegesen működő nanorobotok125 létrehozása jelentheti.
6.2 Társadalom és gazdaság Az integráció az információs kor egyik meghatározó, különös spekulációkra okot adó jelensége. Ugyan minden technológiára igaz, de ez esetben sokkal hatványozottabban érvényes: tőlünk függ, hogy pozitív, építő vagy negatív, pusztító célokra használjuk fel. Elképesztő távlatok villannak fel mindkét irányban – kérdés, hogy milyen érdekek és elvek szerint használjuk ki a lehetőségeket. 6.2.1 Társadalmi hatások Az életmeghosszabbítás vágya és a fejlett országok lakosságának elidősödése következtében szaporodó egészségügyi rizikófaktorok miatt egyre fokozottabb igény mutatkozik az IT-t és biológiát egyesítő („info-bionikai”) megoldások iránt. Ennek az igénynek (és a bioinformatika fejlődésének) egyik következménye, hogy azoknak a BMI rendszereknek a létrehozásánál, amelyek a tényleges gyógyításra (és nem annak elméleti megalapozására) összpontosítanak, elterjed az egészségügyi és biológiai rendszereket közös nevezőre hozó, a szerteágazó adatokat összekapcsoló/egységesítő megközelítés. Az integráció hatására az eddigiektől eltérő oktatási innovációra lesz szükség: a leendő műszaki informatikusoknak már az egyetem első évétől magasszintű biológiai tanulmányokat is kell folytatniuk, míg az orvosjelölteknek az elektronikához és az informatikához is érteniük kell. Az új, biológiai alapú módszerek még szélesebb körű társadalmi-ökológiai következménye, hogy jelentős mértékben csökkenthetik a környezetszennyeződést okozó ipari tevékenységeket. Átalakul az ötven éve még szénen és acélon, manapság szilíciumon és
124
A BMI létrehozásának legfontosabb szereplője az európai uniós INFOBIOMED (http://www.infobiomed.org) kiválósági hálózat. 125 Az ausztrál Monash Egyetemen (http://www.eng.monash.edu/non-cms/mnrl) az első olyan nanorobotot fejlesztik, amely képes lehet emberi artériákban és emésztőrendszerben mozogni. A kétszázötven mikronnyi, két emberi hajszál szélességű szerkezet képeket továbbítana, mikroszkopikus terheket vinne el jelenlegi katétertechnológiával elérhetetlen rendeltetési helyükre, például sérült koponya-artériába, valamint minimális mikrosebészeti beavatkozást is végezne. A kudarccal végződött hasonló kísérletekkel ellentétben, az ausztrál kutatók elektromágneses motor helyett a nanoszinthez jobban alkalmazkodó (elektromos áram hatására alakot változtató, mechanikus nyomásra elektromos töltést generáló) piezoelektromos mikromotort használnak. A tervek szerint 2009-re készülnek el. A nanorobot első páciensei szívroham és embólia sújtotta, valamint súlyos érrendszeri problémáktól szenvedő betegek lehetnek.
51
információn nyugvó ipari infrastruktúra. A korábbiaktól drasztikusan eltérő „mezőgazdasági” érába lépünk, amihez ötven év múlva élő rendszerek ad(hat)ják az alapokat.126 Ezzel egyidejűleg, mint a madárinfluenza vagy a SARS intő példái bizonyítják, „a szellem ki is szabadulhat a palackból”127: új, lokálisan megtervezett élőlények esetleg beláthatatlan – negatív – globális, társadalmi szolgáltatásokat megváltoztató, iparágak (például légi közlekedés, turizmus) hanyatlásához vezető hatást válthatnak ki. A mélyreható környezetátalakítás új típusú, „láthatatlan” környezetszennyeződést eredményezhet. Fokozódhat a bioterrorizmus veszélye: egyrészt szervezett terrorista csoportok juthatnak hozzá szintetikus úton előállított fertőző mikroorganizmusokhoz, vírusokhoz, és kezdhetnek biológiai hadviselésbe, másrészt a számítógépes hacker-kultúrához hasonlóan, megfelelő technikai felszereltség és szakmai ismeret birtokában, magányos biohackerek házilag gyárthatnak kórokozókat. Mindezek elkerülése miatt még időben ki kellene dolgozni az egész világra kiterjedő szabályozást, amit szigorú kontrollal érvényesítenének. Azonban erre ma még kevésbé van esély, mint korábban lett volna. 6.2.2 Gazdasági hatások A technológiai és a társadalmi következményekkel összehasonlítva, a tárgyalt jelenségkörnek az adott időszakra nincs jelentősebb gazdasági hatása. Az új gépi rendszerek az emberi munkaerő nagyobb helyettesítésével elvileg növelik a hatékonyságot, csakhogy ez – más infokommunikációs technológiákkal összehasonlítva – egyelőre nem lesz számottevő. A gyógyászatban, a gyógyszeriparban és a mezőgazdaságban a biotechnológia mellett egyre markánsabbá válik a bioinformatika jelenléte, viszont a szintetikus biológia csak az időszak végére válik önálló iparrá, így gazdasági következményeiről még nem beszélhetünk.
7. Hazai helyzet 7.1 Jelenlegi helyzet Biológia és IT magyarországi viszonyát egyelőre a (nemzetközi színvonalú) biotechnológiai kutatások128 (Központi Élelmiszertudományi Kutató Intézet, Szegedi Biotechnológiai Központ, gödöllői Mezőgazdasági Biotechnológiai Kutatóközpont) határozzák meg. A szűkebb értelemben vett biotechnológián túli kölcsönhatásokat – kisebb mértékben, szórványjelleggel, még nem „kitapintható” trendként, de – az ismertetettekhez hasonló elképzelések és módszerek kivitelezése jellemzi.
7.2 Kutatások, fejlesztések és a várható fejlődés A kölcsönhatások jelenleg a számítástudományban (analogikai számítógép, Physis stb.) erőteljesebben, a biológiában kevésbé érvényesülnek. 7.2.1 Analogikai számítógép Roska Tamás (MTA SZTAKI Analogikai és Neurális Számítógépek Kutatólaboratórium, PPKE Információs Technológiai Kar) évtizedek óta mesterséges neurális áramkörökkel és analogikai számításokkal foglalkozik, különös tekintettel a celluláris nem-lineáris/neurális hálózatokra (cellular nonlinear networks, CNN), az analogikai számítógépekre, melyekben a sok egyszerű analóg processzor lokálisan van összekötve, és az adatok nem számok, hanem képfolyamok. 126
Vö. Rodney Brooks: The Cell Hijackers, 2004 (http://www.technologyreview.com/Biotech/13612). A szalmonella vírusa például egy, az űrben végzett kísérlet tanúsága szerint a súlytalanság körülményei között 167 génjét megváltoztatta, és agresszívebb, életre veszélyesebb változattá evolválódott. 128 Maga a kifejezés is magyar eredetű: 1919-ben Ereky Károly használta először. 127
52
Azért van szükség ezekre a számítógépekre, mert az általunk ismertek képtelenek megoldani a legegyszerűbb élőlények által is könnyedén kivitelezett feladatokat. A chipek változatlanul a Neumann-elv szerint működnek: tárolt programú, digitális modellt követnek. Roska analogikai vizuális mikroprocesszorának (érzékelő számítógépének) működtetése túlmutat a Neumann-elven, „hagyományos, flexibilis tároltprogram-vezérléssel történik, azonban a műveletek jó része folytonos, analóg jelek térképszerű seregein folyik. Ezeket gyakran a fizika végzi el.”129 Néhányezer idegsejt számítógépként történő működése segít a mesterséges képfeldolgozásban, választ ad a térhallás rejtélyére. A CNN univerzális gép mintájául az agyféltekék munkamegosztása szolgál: keveredik benne az analóg (folytonos) tér-időbeli dinamika és a diszkrét utasításokkal dolgozó logika.130 Az MTA SZTAKI Analogikai és Neurális Számítógépek Kutatólaboratóriuma a Sevillai Mikroelektronikai Kutatóintézettel és a Berkeley Egyetem munkatársaival újfajta érzékelő számítógépet hozott létre egy kis látó mikroprocesszor formájában. A vizuális mikroprocesszort felhasználva két mesterséges szemmel rendelkező, a képet érzékelő és értelmező, rendkívül gyors kamera-számítógépet fejlesztettek. A Laboratóriumban jelenleg a következő területeken folynak kutatások: - celluláris nem-lineáris hálózatok kvalitatív és megvalósíthatósági elmélete, - sok ezer processzoros integrált hordozható érzékelő számítógépek, - sokszenzoros, multimodális, valósidejű fúzió és navigáció algoritmusai és platformjai, - programozott optikai celluláris számítógépek, - celluláris 3D szuperszámítógépek. 7.2.2 Élőlények működési mechanizmusai, evolúció és számítástudomány A biológiai indíttatású számítástudomány hazai térnyerését az evolúciós algoritmusok egyre gyakoribb alkalmazása, robotfejlesztések és multi-ágens rendszerek szemléltetik.131 A mesterségesélet-kutatások ígéretes eredménye Egri-Nagy Attila (Debreceni Egyetem, Hertfordshire Egyetem) Physis-e: a rendszer az evolúciós algoritmusokat, és – tágabb értelemben – a digitális evolúciót, önreplikáló gépi kódú programok természetes szelekció alatt történő fejlődését tanulmányozza. Alkalmazási területei a szoftverfejlesztésben (kódoptimalizálás, új algoritmusok) és az evolúciós biológiában (hipotézisek tesztelése), illetve annak oktatásában várhatók. 7.2.3 Idegélettani kutatások A Kísérleti Orvostudományi Kutatóintézet nemzetközileg is elismert Celluláris Idegélettani Kutatócsoportja az agy információfeldolgozásának molekuláris, sejtes és hálózati alapjait, a hálózatok működésének összehangolását igyekszik megérteni. Élettani, anatómiai és számítógépes modellezési kísérleteikkel arra a – számítástudományt is valószínűleg befolyásoló – következtetésre jutottak, hogy az agy szinapszisai különböző módon képesek működni, működésüket nem lehet sztereotipikus sémával leegyszerűsíteni. 7.2.4 Bioinformatika, szintetikus biológia A hazai bioinformatika viszonylag rövid, nem egészen egy évtizedes múltra tekint vissza. A kutatások az ELTE-n, budapesti központú kutatóintézetekben, az MTA – a helyi 129
Roska Tamás: Info-bionika és érzékelő számítógépek, Mindentudás Egyeteme, 2004 (http://www.mindentudas.hu/roska/20040607roska.html). 130 Az analóg feldolgozás valószínűleg csak a jelek elő-feldolgozására alkalmas. A magasabb szintű funkciók kifejezetten digitális feldolgozást igényelnek. Ez a kettősség az analóg-digitális „keveredés” magyarázata; és egyben alá is látszik támasztani azt az álláspontot, mely szerint a jövő számítógépei mindenképpen hibridek lesznek. 131 A hazai helyzetet az Ágensalapú technológiák és az Autonóm, mobil robotok elemzések mutatják be.
53
tudományegyetemmel132 együttműködő – Szegedi Biológiai Központjában, a debreceni és a pécsi egyetemeken folynak.133 Ezek a felsőoktatási és akadémiai intézmények teremtik meg a magyar szintetikus biológia alapjait. A Szegedi Biológiai Központ Biokémiai Intézetében már folynak ilyen jellegű kísérletek: az egyik legjobban ismert élőlény, a kólibaktérium nagy léptékű, tervszerű genetikai átalakításával foglalkoznak. A „háziasított” baktérium természetes társainál hatékonyabban lesz programozható hasznos anyagok termelésére. 7.2.5 A várható fejlődés A biotechnológia húzóágazattá válásának egyik legfőbb problémája, hogy – mivel rendkívül eszközigényes iparág – az induló cégek szűkös anyagi lehetőségei nem elegendők a drága felszerelések beszerzésére, így inkubátor-ház létrehozása tűnik a legjárhatóbb megoldásnak. Amennyiben megvalósul – a biológiai indíttatású számítástudomány dinamikus fejlődésével együtt –, komoly lökést adhat a bioinformatikának és a még gyerekcipőben járó szintetikus biológiának.
7.3 Befolyásoló tényezők és hatások A befolyásoló tényezők és hatások kisebb-nagyobb mértékben megegyeznek az 5. és a 6. fejezetben leírtakkal, azzal a lényeges különbséggel, hogy a technológiai tényezők jelenléte és a társadalmi érzékenység kevésbé markáns, illetve – főként ezek következtében – a hatásokkal később fogunk szembesülni. Néhány hazai jellegzetességet szintén figyelembe kell vennünk: a biológiai/biotechnológiai kutatások hagyománya, az európai uniós projektekben való részvétel pozitív, a viszonylagos lemaradás, a kutatók jobb anyagi és munkakörülményeket biztosító külföldi központokba, magáncégekhez történő elvándorlása negatív hatást fejthet ki.
8. Összegzés A már napjaink tudományát is, a közeljövőét pedig még erőteljesebben meghatározó interdiszciplináris szemlélet korábban egymástól távoli területek elképzelhetetlennek vélt közeledését eredményezi. A jelenség legmarkánsabb példái közé tartoznak a a „szerves” biológia és a „szervetlen” IT kölcsönhatásai. Ezek közül a legfontosabbak: • elme- és mesterségesintelligencia-kutatás összefonódása, • élőlények működési mechanizmusainak és az evolúció elveinek beépítése számítógépes rendszerekbe, • szerves anyag processzorokká, számítógéppé alakítása, • számítástudományi elvek és módszerek alkalmazása biológiai, genetikai kutatásokban, • mesterséges élet és szintetikus biológia közötti párhuzamok és átfedések. A biológiai modellek alapján hatékonyabb, emberközpontúbb számítógépes rendszerek készülnek, míg az új típusú hardverek és szoftverek segítségével a saját biológiánkat alakíthatjuk át. A folyamat egyik oldala nem rejt magában különösebb veszélyeket, a másikról ugyanez nem állítható, így – mivel a jelenség következményei az élet alapjaira vonatkoznak – a szabályozás fontosságát nem lehet eléggé hangsúlyozni.
132
A Szegedi Tudományegyetem Informatikai Tanszékcsoportján tanító Szentesi István nevéhez fűződik a témakör legátfogóbb magyar nyelvű elemzését adó, mintegy ezer oldalas (!) kötet, a 2004-ben megjelent Bioinformatika és bioszámítógépek (kísérlet félúton). 133 2006-ban megalakult a Magyar Bioinformatikai Társaság.
54
Ajánlott irodalom - Bedau, Mark A. (ed): Artificial Life. Vol. 1-14. MIT Press, 1993-2008. - Bentley, Peter J.: Digital Biology – How Nature Is Transforming Our Technology and Our Lives. Simon & Schuster, 2002. - Chopra, Paras – Kamma, Akhil: Engineering life through Synthetic Biology. In: In Silico Biology 6, 0038 (http://www.bioinfo.de/isb/2006/06/0038), 2006. - Drexler, Eric K.: Engines of Creation 2.0 – The Coming Era of Nanotechnology. (Updated and expanded, http://www.wowio.com/users/product.asp?BookId=503), Wowio, 2007. - Holland, John H.: Emergence – From Chaos to Order. Oxford University Press, 1998. - Johnston, John: The Allure of Machinic Life – Cybernetics, Artificial Life, and the New AI. MIT Press, 2008. - Kauffman, Stuart A.: Origins of Order – Self-Organization and Selection in Evolution. Oxford University Press, 1993. - Kelly, Kevin: Out of Control – The New Biology of Machines, Social Systems, and the Economic World. Perseus Books, Reading, Massachusetts, 1994. - Levy, Steven: Artificial Life – The Quest for a New Creation. Jonathan Cape, 1992. - Stelarc: From Psycho-Body to Cyber-Systems – Images as Post-Human Entities. In: Bell, David – Kennedy, Barbara M. (eds,): The Cybercultures Reader, pp. 560-77. Routledge, London and New York, 2000. - Synthetic Biology – Applying Engineering to Biology (European Comission, Report of a NEST High-Level Expert Group, ftp://ftp.cordis.europa.eu/pub/nest/docs/syntheticbiology_b5_eur21796_en.pdf), 2005.
55