Logo weiterlesen.de
Extropia - Das postbiologische Zeitalter Teil 1

Thomas Ahrendt

Extropia - Das postbiologische Zeitalter Teil 1

Leben, Intelligenz & Bewusstsein


Der Zukunft und denen, die die Menschheit vorwärts bringen.


BookRix GmbH & Co. KG
80331 München

1.01. Leben und Bewusstsein

Was ist Leben: Leben lässt sich definieren als Besitz der Organisation von Materie und nicht als Besitz einer Materie, die organisiert ist. Bei der Definition von Leben braucht an sich nicht nur auf organische (Kohlenstoff) Chemie beschränken, ja nicht mal auf einen physikalisch aufgebauten Körper, solange die Prozesse, die Verhaltensweisen, die für Leben typisch sind, realisiert sind (Selbstreproduktion, Stoffwechsel, Wachstum, angepasste Reaktionen usw.)

Nach der üblichen Vorstellung ist "Leben" ein zwar komplexer, aber vor allem ein carbaquistischer Prozess, der stark abhängig von der Materie bzw. dem Substrat ist. Wenn ich eine Kopie meines Gehirns mit derselben Struktur machen könnte, jedoch unter Verwendung anderer Materialien, würde die Kopie dann denken, dass sie gleich ich ist?

Ist Materie die Grundlage von Bewusstsein, dann können Leben und Bewusstsein niemals von Fleisch und Blut, das heißt von der Biologie wegevolvieren und  intelligente Computer sind unmöglich. Kohlenstoff- Leben kann dann nur solange existieren, wie die Bedingungen dafür günstig sind, solange also flüssiges Wasser und freie Energie verfügbar sind. Aber auch dann ist die Lebensdauer begrenzt, da es nur einen endlichen Vorrat an freier Energie hat. Die Quellen der freie Energie, auf die Leben für seinen Stoffwechsel angewiesen ist, werden durch die fortschreitende kosmische Expansion schließlich erschöpft sein. Sollte „Struktur” die Bewusstseinsgrundlage sein, dann kann Leben jede nur mögliche materielle Verkörperung annehmen, die für seine Zwecke optimal ist und dann sind intelligente Computer möglich (und in der Biologie können Skalengesetze angewandt werden). 

Wenn aber analoge Prozesse auch auf anderen Systemen basieren können, scheint für Leben nicht die Substanz bzw. das Substrat entscheidend zu sein, sondern das Muster und Muster ist nur ein anderer Name für Information. Wobei Leben konkreter ein dynamisches Muster, ein Prozess ist. (Die ersten Lebewesen waren möglicherweise sich selbst kopierende Muster von Defekten in Metallkristallen, die auf Kohlenstoffmoleküle übertragen wurden.) Das Fortdauern lebender Muster beruht auf einer Wechselwirkung mit ihrer Umwelt, wodurch sich die in dem Muster codierte Information zwar ständig (leicht) verändert, aber diese Varianz wird durch das Feedback auf eine enge Bandbreite eingeschränkt.

Neben Information ist Komplexität ein weiterer grundlegender Faktor für Leben; es ist abhängig von einem Maß an Komplexität. Jenseits dieser kritischen Masse können sich (Proto)Lebensformen fortlaufend selbst reproduzieren, wobei sie nicht nur Ihresgleichen erschaffen, sondern sogar Ursprung für kompliziertere Objekte sein können (Evolution). Bestes Beispiel dafür ist die Entwicklung von der RNA-Welt über relativ einfache, einzellige Organismen zu so komplexen Lebewesen wie den Säugetieren und den Menschen (als vorläufigen Höhepunkt). Außerdem ist diese These das beste Gegenargument für den "Vitalismus". Trotzdem es die mystische Vis vitalis nicht gibt, die lebende von toter Materie trennt, existiert tatsächlich eine  Art Lebenskraft in biologischen Systemen - eben Komplexität.

Als 3. Faktor ist "Selbstorganisation" grundlegend mit der  Entstehung des Lebens verbunden. Selbstorganisation muss als eine Kraft der Natur verstanden werden, die die Evolution unterstützt und das System so in Richtung einer größeren Komplexität schiebt. Leben will sich entwickeln , auch gegen scheinbar unüberwindliche Hindernisse. Verantwortlich dafür ist weder eine Lebenskraft noch Zauberei, sondern ein substantieller Kern der Natur, der selbst reproduzierende Objekte möglich, wenn nicht sogar unvermeidlich macht, wenn alle 3 Faktoren (Information, Komplexität, Selbstorganisation) ausreichend vorhanden sind.

 Leben wie wir es kennen, ist aus der Perspektive der Thermodynamik ein sogenanntes offenes System: Lebewesen tauschen mit ihrer Umwelt Materie (über Nahrung und Stoffwechselendprodukte) und Energie (über Stoffwechselprozesse und Schwitzen) aus.

In weit entfernter Zukunft wird die Entropie soweit zugenommen und sich die nutzbare Energie derart verringert haben, dass Leben nicht mehr möglich sein wird. Ein Ausweg wäre nun, die kosmische Entropie in ihr Gegenteil umzukehren, also die Negentropie zu erhöhen (was Leben auf der Erde ja schon seit Gigajahren macht). Dabei stellt sich heraus, das die Evolution - in Verbindung mit der Selbstorganisation - entgegengesetzt zur Zunahme der Entropie im Universum verläuft; sie offensichtlich ein  Gegenspieler des  zweiten Hauptsatzes der Thermodynamik ist.

Während die Entropie die Ordnung auflöst, treibt im Gegensatz dazu die Evolution durch die Kraft der Selbstorganisation immer weiter in Richtung zunehmender Ordnung. Selbstorganisation im Widerstreit zu dem zweiten Hauptsatz der Thermodynamik lässt sich als wichtiges physikalisches Prinzip verstehen, vielleicht sogar als ein sehr wichtiges physikalisches Gesetz, das in umfassender Weise in die Physik eingebettet ist. "Komplexität" umfasst Physik und Mathematik, Informationstheorie, Informatik, Physiologie, Populationsgenetik und Spieltheorie. 

Leben und der Bottom-up-Ansatz: biologisches Leben ist ein Prozess und arbeitet sich von der Basis zur Spitze. Die Welt als Ganzes (= die ges. Biosphäre) – ist ein gigantisches natürliches System, das als gemeinschaftliches Resultat von vielen Milliarden biologischen FSMs entstand, die winzigen Regelwerken gehorchten. Um KL zu erschaffen o. um zu klären, was Leben ist, braucht man vieles, von der Chaostheorie bis hin zur Genetik und darüber hinaus eine besondere Sichtweise von der Natur des Lebens selbst. Theorien über den Ursprung des Lebens sind sehr zahlreich, wobei viele einerseits außerordentlich schwer zu widerlegen und andererseits nahezu unmöglich zu beweisen sind. Die Schwierigkeiten beginnen

schon mit Unstimmigkeiten bezüglich der Zusammensetzung des Planeten und mit den atmosphärischen Bedingungen, die auf der Erde geherrscht haben, als sich das Leben entwickelte. Die Schwierigkeiten

werden aber noch größer: Denn einige der Arbeitshypothesen, selbst wenn sie von sehr ernst zu nehmenden Wissenschaftlern vorgebracht werden, enthalten oft bizarre und recht unwahrscheinliche Teilaspekte. Zu den eher klügeren Theorien, die auch heute immer noch als möglich in Erwägung gezogen werden, gehören beispielsweise die von Graham Cairns-Smith, nach der das Leben zwischen sich bildenden

Tonschichten entstand und sich dann im Akt einer genetischen Machtübernahme in biochemische Reaktionen verwandelte (wie wir sehen werden, hat diese Theorie gewisse Bedeutung für KL). Eine anderes Modell, das „Panspermie“-Modell besagt, dass das Leben von einem außerirdischen Keim ausgegangen ist, den ein weit entfernter, extraterrestrischer Vetter (Mars?) uns geschickt hat.

All diese Theorien spiegeln das Paradoxon wider, mit dem der Ursprung des Lebens behaftet ist. Wie schon von Neumann feststellte, kann Leben nicht entstehen, wenn nicht eine gewisse Komplexität vorhanden ist. Sobald dieser entscheidende Grad von Komplexität erreicht ist, kann der Prozess der Evolution beginnen und komplexere Moleküle, schließlich sogar Lebewesen hervorbringen. Aber wie kommt diese notwendige Anfangskomplexität zustande?

Diese Problematik veranlasste selbst geduldige Wissenschaftler dazu, die Untersuchungen über den Ursprung des Lebens in den Bereich der Pseudowissenschaften abzuschieben. Einige besonders konservative Biologen versuchten sogar, ziemlich weit hergeholte Erklärungen hervorzuzaubern, um damit die unendliche Unwahrscheinlichkeit der Entstehung des Lebens zu erklären. Sowohl den Theorien, die sich aus dem Miller-Urey-Experiment und dessen diversen Abwandlungen ergeben als auch der RNS-Welt-Theorie, nach der das frühe irdische Leben in einer RNS-Welt existierte, die  aus selbstreplizierender RNS bestand und später durch DNS und Proteine ergänzt wurde, fehlt die Hauptkomponente für die Entstehung des Lebens, nämlich die Kraft der Selbstorganisation.

Hyperzyklustheorie

Hier kommt nun der vom deutsche Biochemiker Manfred Eigen entworfene sogenannte Hyperzyklus ins Spiel, ein  zusammenhängendes Netzwerk von funktionell verpaarten selbstreplizierenden "Wesen", bei denen gewisse Verhaltensweisen entstehen, die mehr sind als nur die Summe ihrer Wechselwirkungen. Bei der Hyperzyklustheorie handelt es sich um wechselseitige Abhängigkeiten, bei der keine einzelne Reaktion die übrigen Funktionen des Zyklus ausführen kann. Stattdessen geht es um ein ausgewogenes Ökosystem.

Mit dem Hyperzyklusmodell lässt sich zeigen, wie nackte RNA eine komplizierter Reaktionskette ausführen kann, die zu besser angepasste RNA-Moleküle und schließlich zu den typischen, hochentwickelten Funktionen der ribosomalen und Boten-RNA führt. Wenn sich Leben nicht nur aus einer RNS-Welt entwickelt haben soll,  wie könnte dann frühes die Doppelfunktion von Replikation und Stoffwechsel unterstützt haben? Hier könnte ein Modell von Freeman Dyson weiterhelfen.

Während sich bisherige Theorien über den Ursprung des Lebens entweder der Proteintheorie oder der Nukleinsäuretheorie zuordnen ließen, vermutete Dyson, dass  die Entstehung des Lebens eine Kombination aus einem ReplikationsProzess und einem Stoffwechselprozess war. Die Proteintheorie besagt, dass der durch Proteine angeregte Stoffwechsel zuerst dagewesen war, während  die Nukleinsäuretheorie davon ausgeht, dass ein Replikator wie die RNS die erste Manifestation des Lebens war.

Leben begann nach dem dualen, hyperzyklusähnlichen Kaufman-Modell mit einem autokatalytischen, selbstreplizierenden Haufen von Polymeren, deren Teile gemeinsam und gleichzeitig einen Stoffwechsel katalysieren. Im Gegensatz dazu brauchen Konkurrenzmodelle eine Kombination sehr vieler Voraussetzungen von sehr geringer Wahrscheinlichkeit, da ihnen selbstreproduzierende Systeme fehlen. Sie hängen von der Entstehung einer einzigen Molekülart ab, die dazu fähig ist, sich in komplexe Substanzen verwandeln zu können, um die Maschinerie des Lebens mit Energie versorgen zu können.

Statt der systembedingten parallelen Reaktionen, die Kauffman vorschlug und die er als zwangsläufiges Resultat der Komplexität ansah, liefen diese Alternativen in den Konkurrenzmodellen als Folge von Vorgängen ab. Dazu war dann allerdings eine Reihe genau festgelegter Bedingungen notwendig, vergleichbar einem Roulettespiel, bei dem man immer wieder auf eine bestimmte Zahl setzt in der Erwartung, dass sie eigentlich jeden Moment fallen muss. Aber es gab auch noch ein weiteres offensichtliches Gegenargument: Wenn die Trefferchancen in dieser Theorie so unglaublich gering waren, warum gab es uns dann? Weil Leben entstehen will.

Sprunghafte Evolution

Nach neuerer Ansicht von Biologen verläuft die Evolution sprunghaft. Statt eines gleichmäßigen und kontinuierlichen Entwicklungsanstiegs wird dieser immer wieder von Stillstandsperioden unterbrochen, in denen die Arten eine Zeitlang relativ stabil und im Gleichgewicht bleiben.  Diese Perioden nutzen sie, um sich der jeweiligen Umwelt anzupassen. Ein plötzlicher Umweltwechsel oder eine erfolgreiche Mutation erzeugen qualitative  Sprünge in ihrer Tauglichkeit. Bei den Phänotypen der neuen Arten treten neue und physikalische Merkmale auf. Biologen bezeichnen diese von sprunghaften Schüben gekennzeichnete Entwicklung als „unterbrochenes Gleichgewicht“. „Epistatisch“ nennen Biologen Fälle, in denen eine ausgewogene Kombination verschiedener Gene für das Auftreten einer Eigenschaft benötigt wird. Dass eine beliebige Kombination von Genen beim Crossing-over oder durch eine Mutation in einer einzigen Generation zu einem neuartigen Genotyp führt, ist sehr selten bzw. unwahrscheinlich. Außerdem würde eine Paarung diese unwahrscheinliche Verkettung sofort wieder zerstören.

Auch künstliche Organismen entwickelten sich nicht in einem gleichmäßigen, kontinuierlichen Prozess, sondern durch plötzliche Sprünge des unterbrochenen Gleichgewichts. Ihr Fortschritt besteht häufig aus langen Phasen relativen Stillstands, die durch kurze Perioden schnellen Fortschritts unterbrochen werden. Das deckte sich auch mit der Feststellung der Evolutionsbiologen. Doch bei der Untersuchung des Genotyps künstlicher Lebewesen stellte sich heraus, dass, während eine Population zu ruhen schien und ihr Phänotyp gleich blieb, sich in ihren genetischen Anlagen Änderungsprozesse vollzogen. Die plötzliche Zunahme der Tauglichkeit war kein unvorhergesehenes Ereignis; vielmehr schien die Population ihren nächsten Schritt schon in sich zu tragen.

Der Genpool enthält bereits eine Reihe epistatischer Gene, die erst dann zum Einsatz  kommen, wenn alle vorhanden sind. Bis dahin sind alle Allele für diese Gene rezessiv. (Zur Erinnerung: ein Allel stellt bestimmte Genvariationen dar. Z.B. sind Farbpigmente  Allele des Gens für die Augenfarbe.)

Während die dominanten Eigenschaften in der Population zum Ausdruck kommen, können sich rezessive Gene in ihr anhäufen, wobei ein rückgekoppeltes Netzwerk die parallele Entwicklung dieser Anordnung unterstützt. Erreicht die Anzahl der rezessiven Gene eine bestimmte Größe, verbreiten sie sich überall in der Population, wobei diejenigen Individuen, die alle diese Eigenschaften besitzen, aufgrund des epistatischen Effektes viel besser angepasst sind, so dass dieser Population ein Entwicklungssprung gelingt. Wird also dieser „magische“ Prozentsatz erreicht, dann gibt es plötzlich eine enorme, positive Rückkopplung und ruckzuck geht ihre Zahl nach oben, bis jeder sie hat. Dieser magische Prozentsatz lässt sich durch den Term 1/ℯ² quantisieren. Wird bei Vorhandensein der entscheidenden Gene dieser Wert erreicht, steigt die Population plötzlich auf eine höhere Ebene. (Gilt das auch für die Intelligenz, für die „Wissenschaftlichkeit“ einer Gesellschaft? Hat das auch kulturelle Auswirkungen? Kann man sagen, dass, wenn die Anzahl der Wissenschaftler, Forscher und Ingenieure 1/ℯ² erreicht, dass dann die gesamte Gesellschaft so wird?) Qualitative Sprünge in Richtung Anpassung, Komplexität und „Höherentwicklung“ werden nicht unbedingt durch drastische Umweltstörungen oder entscheidende Mutationen verursacht; vielmehr sind komplexe Zusammenhänge multipler Gene dafür verantwortlich.

Telische Wellen

Wie kann man Leben erkennen? An welchem Punkt lässt sich festlegen, ob eine Kreatur (z.B. ein menschlicher Embryo) lebendig ist? Kann man Fortschritte beim Verständnis und der Simulation des Verhaltens und der Simulation des Verhaltens von lebendigen Kreaturen machen, ohne sich in die verwickelten Zusammenhänge einer Definition von Leben einzulassen? Im Alltag ist die Beurteilung einfach: eine Katze lebt – ein Stein nicht. Aber eine Formalisierung dieser Unterscheidung ist schwierig, besonders wenn diese in empirischen Messungen verwendet werden soll. Leben zeichnet eine empirisch messbare, statistische Qualität aus. Leben ist ein Attribut, dass ein Organismus besitzt, wenn dieser Mitglied eines sich entwickelnden biologischen Systems von Organismen ist, die miteinander und mit der Umwelt wechselwirken. Leben ist also eine Eigenschaft, die mit der Umwelt interagiert. Wobei ein Organismus nur ein zeitweiliges Mitglied einer sich entwickelnden Biosphäre ist (aber nicht notwendigerweise in der Technosphäre, dort Unsterblichkeit möglich). Bei aller Komplexität, die „Lebendig-Sein“ assoziiert, gibt es dennoch 3 Hauptkriterien:

  • ein Informationen verarbeitender Apparat
  • die Fähigkeit, Funktionen über eine komplexe Struktur auszuführen
  • die Fähigkeit, diese Struktur innerhalb von Generationen spontan zu modifizieren und zu verbessern (und genau das ist Evolution)

Der Schlüssel für die Bewertung von Lebendig-Sein ist evolutionäre Aktivität, die sich über die Bewegung von vorteilhaften oder nützlichen Genen innerhalb des Genpools einer Art quantifizieren lässt. Diese Bewegungen vorteilhafter Gene werden auch als „telische Wellen“ bezeichnet, obwohl „Teleologie“ ein biologischer Negativbegriff ist, denn im Gegensatz zu Biologen glauben Teleologen, dass die Evolution in zielgerichteten Bahnen auf ein Endziel hin verläuft. (Die natürliche Biologie macht das vielleicht nicht, aber Technologie könnte es sehr wohl, weil sie bewusstseinsgesteuert ist.) In diesem Fall sind die telischen Wellen jedoch anders, nämlich im Rückblick zu verstehen, da die Gene rückblickend daran arbeiten, die Art zu verbessern, so dass man die genetischen Veränderungen im Nachhinein als zielgerichtet, als finalistisch deuten könnte. Allerdings gibt es für zukünftige KLs – wie auch für uns Menschen – sehr wohl die Möglichkeit einer zielgerichteten Entwicklung, anders als Populationen, deren Entwicklungen nur von evolutiven Kräften gesteuert wird.  (Wir Menschen könnten uns das Ziel geben z.B. in 100 Jahren 105 Menschen auf dem Mars anzusiedeln oder in knapp 10 Megajahren die gesamte Galaxis zu kolonisieren. Zukünftige KL-Organismen werden so hoch entwickelt sein, dass sie selbst auf bestimmte Ziele, etwa die technologische Singularität oder den Omegapunkt, hinarbeiten.)

In dem KL-Modell der mentalen Teleologie bilden telische Wellen nicht die Basis für das Überleben, sondern für eine psychologische Anpassung oder einen Lernvorgang. Dieses Modell ist nicht nur Richtschnur für Vergleiche künstlicher Lebensräume, sondern auch ein Bestimmungstest dafür, was lebt. Eine positive Aktivität ist ein Hinweis dafür, dass sich KL-Wesen kontinuierlich neue Verhaltensweisen oder psychologische Aktivitätsmuster einverleiben und angewöhnen. Die Präsenz telischer Wellen ist ein Beweis dafür, dass richtiges Leben in einem System vorhanden ist. Auf dies Weise ließen sich auch biologische Populationen vermessen, wenn es gelänge, die genetischen Bewegungen festzustellen.

1.02. Contra KL

Manche Philosophen behaupten, Roboter würden niemals ein Bewusstsein haben, weil es niemals erklären ließe, da uns die begrifflichen Voraussetzungen (angeblich) fehlen (bzw. weil wir einfach zu doof sind, es zu definieren). Dieser Ansicht, man werde in Maschinen kein Bewusstsein schaffen können, ist auch der Physiker Roger Penrose. Deren philosophische Argumente leitet er aus der Quantentheorie ab.

Aber zu beweisen, dass Maschinen niemals ein Bewusstsein haben können, gleicht dem Versuch, die Nichtexistenz des Einhorns zu beweisen. Ein solcher Beweis kann nie allen Anforderungen genügen. Selbst wenn man zeigen könnte, dass es Einhörner in den meisten Gegenden der Erde nicht. gibt, wäre es immer noch möglich, dass man sie in unerforschten Gebieten findet. Deshalb hat die Behauptung, denkende Maschinen könnten niemals gebaut werden, strenggenommen keine wissenschaftliche Rechtfertigung. Ob es denkende Maschinen geben kann, wird sich erst dann zeigen, wenn jemand eine denkende Maschine gebaut hat. Bis dahin lässt sich die Frage nicht beantworten.

Auch die Ansicht, dass Roboter eines Tages das Denken zwar sehr gut nachahmen werden, aber sie sich des Gedachten nicht bewusst seien oder vielleicht Gefühle zeigen, ohne  sie  wirklich zu empfinden, ist Haarspalterei, denn  auch ein Roboter, dessen Leistungen sich in nichts von denen eines Menschen unterscheiden, hat nach allen plausiblen Maßstäben ein Bewusstsein. Was sich tatsächlich im Gehirn des Roboters abspielt, ist zum größten Teil bedeutungslos. Vermutlich gibt es viele Abstufungen von Bewusstsein. Zwar gibt es im Tierreich größere Lücken, aber im Großen und Ganzen findet man bruchlose  Übergänge im Grad potentiellen Bewusstseins von den einfachen Einzellern bis zu den später entstandenen  komplexeren Organismen einschließlich des Menschen. Da die Menschen aus weniger komplexen Lebensformen hervorgegangen sind, ist die Annahme, dass es viele Abstufungen des Bewusstseins gibt, völlig plausibel. Ähnlich, wie sich in der biologischen Evolution über Megajahre hinweg immer vernunftbegabtere Wesen entwickelt haben, wird sich dies auch in der KI- bzw. KL-Forschung wiederholen (nur viel schneller, da es sich hier um einen gesteuerten, technologischen Prozess handelt). In den kommenden Jahrzehnten wird man Computer und Roboter bauen, die ganz allmählich einen immer höheren Grad von Bewusstsein erlangen.

Künstliche neuronale Netzwerke in Verbindung mit Turings Behauptung, eine universelle Maschine könne jedes andere berechenbare System nachahmen, legen die Schlussfolgerung nahe, lebende Organismen hätten selbst einen eingebauten Computer, dessen Berechnungen ihr Verhalten bestimmten. Wenn alles, was ausreichend und eindeutig beschrieben werden und zum Funktionieren gebracht werden kann, durch  ein geeignetes begrenztes neuronales Netzwerk realisierbar ist, dann kann ein universeller Computer tatsächlich die "geistigen", neuronalen Funktionen von jedem Lebewesen darstellen. Auch wenn ein sehr langes Speicherband nötig wäre, um die Handlungen einfacher biologischer Kreaturen (Bakterien, Käfer, Fichten) oder die eines menschlichen Wesens zu kopieren. Da die logische Basis unangreifbar ist, ist es unnötig, die eigentliche Maschine zu bauen, um zu verstehen, dass Leben in eine bestimmte Klasse von Automaten einzuordnen ist.

Abgesehen von den Computermöglichkeiten war die Frage, wie weit man in diese Richtung der Evolutionssimulationen gehen konnte, denn Skeptiker und Carbaquisten hielten dagegen, dass eine Serie iterativer Evolutionsschritte,die aus Information bestehende Organismen durchlaufen, niemals die physikalischen Wechselwirkungen nachvollziehen könnte, die die Entwicklung des Lebens auf der Erde zweifelsfrei beeinflusst hatten. Auf die Erschaffung digitalen Lebens selbst kommt es aber auch gar nicht an, weil sich nämlich auf dem Weg dorthin Phänomene beobachten lassen, die während des Entwicklungsprozesses des Systems von einem anfänglich ungeordneten Zustand in eine erkennbare Ordnung auftauchen. Alleine dieser Effekt rechtfertigt die Versuche schon. Jedes Auftreten von lebensähnlichem Verhalten in den Simulationen war ein implizites Argument dafür, dass berechenbare Kräfte die gleichen Verhaltensweisen in unserer natürlichen Welt erzeugt haben. Sollte sich das Verhalten von informativen Organismen, die sich in einer offenen Umwelt entwickeln, als extrem lebensähnlich herausstellen, müsste man die Grundlage des Lebens neu definieren.

 

Doch kein KL?

Sollte es keine (Top-down-)KI geben können, ist dann auch KL unmöglich? Für diejenigen,  die sich noch immer an die Rudimente des Vitalismus klammern, kann es aus philosophisch-religiösen Gründen kein KL geben. Andere formulieren ihre Gegenbeweise mithilfe von (scheinbaren) Argumenten derjenigen, die zu den berufsmäßigen Anfechtern der KI gehören. Doch es scheint unmöglich, die Standardeinwände gegen die KI auf Künstliches Leben zu übertragen. Selbst R. Penrose, wohl der bekannteste KI-Kritiker, räumt ein, dass eine Maschine könne tatsächlich ein Bewusstsein erlangen könnte, wenn die Evolution der ausschlaggebende Mechanismus wäre. Sie ist immer noch geheimnisumwittert in ihrem offensichtlichen Tasten nach einer zukünftigen Zielsetzung. Die Dinge scheinen sich letztlich selbst zu organisieren, und zwar besser, als sie es allein auf der Grundlage einer ungerichteten Evolution und einer natürlichen Auslese müssten. Es scheint in den Gesetzen der Physik etwas zu geben, das es der natürlichen Selektion gestattet, zu einem sehr viel effektiveren Prozess zu werden, als sie dies durch das Wirken willkürlicher Gesetze werden würde. Diese anscheinend teleologischen Fähigkeiten der Evolution sind natürlich die selbstorganisierenden Fähigkeiten, mit denen sich die KL-Studien befassen und deren man sich zu bedienen sucht.

Die leidenschaftlichsten Kritiker Künstlichen Lebens scheinen die Vertreter der Systemtheorie zu sein, deren Ursprung sich in der Kybernetik befindet. Sie bringen schnell das Simulationsproblem in die Diskussion ein. Bei ihrer Kritik an dieser Methode der Simulation handelt es sich allerdings um eine Binsenweisheit, denn keine Simulation kann identisch mit dem Objekt sein, das simuliert wird. Sogar die Verfechter des »Realisierbaren Ziels« warnen vor der Versuchung, zu glauben, die faszinierenden Ergebnisse von Computerexperimenten hätten irgendeine Relevanz für die physikalische Welt. In der Praxis befreit sich das Künstliche Leben allerdings selbst aus diesem Dilemma, da es davon ausgeht, ein Computerexperiment sei zwar kein Äquivalent seiner Vorlage, aber es sei doch immerhin irgendetwas. Die KL-Methode macht auch den Einwand zunichte, Computerexperimente könnten wegen ihrer deterministischen Natur niemals die Charakteristika wirklicher lebender Systeme annehmen. Danach kann Leben nicht allein durch die Ausführung eines Algorithmus entstehen: In der natürlichen Welt trägt die Gesamtheit zufälliger Ereignisse zu der augenblicklichen biologischen Komplexität bei. Aber zufällige Ereignisse werden sehr wohl auch bei KL-Experimenten berücksichtigt. Viele KL-Experimente, besonders solche, die die Evolution simulieren, schließen ein Stadium ein, in dem zufällige Ergebnisse eine jede Wiederholung unkalkulierbar machen. In jedem einzelnen Fall, selbst in so deterministischen Systemen wie dem Zellularautomatenspiel Life, sind die unterschiedlichen Variablen so komplex, dass das System unvorhersehbares oder neu entstehendes Verhalten hervorbringen kann.

Ein weiterer Gegenbeweis war für die Kritiker die vergängliche Natur der Neubildung von Verhalten. Sie behaupten, Künstliches Leben könnte nur durch eine konsequente Definition dieser Neubildung beurteilt werden, und eine solche Definition würde zeigen, dass ein reines Computerprodukt niemals die Art von Neubildung unterschiedlicher Verhaltensweisen erreicht werden könne, wie sie in der biologischen Welt vorhanden ist. Doch Experimente mit offenen Systemen, wie beispielsweise „Tierra“, lassen allerdings Zweifel an dieser Behauptung aufkommen. Auch scheint die Natur der Computerviren der Auffassung zu widersprechen, dass biologische Organismen unsere autonomen Verwandten sind, Computersimulationen dagegen nicht.

Trotz dieser Tatsachen scheint es dennoch einen Grund dafür zu geben, weshalb die möglichen Konsequenzen des Künstlichen Lebens ignoriert werden könnten; weil es vielleicht eine unkontrollierbar lange Zeit dauern wird, bis es Wissenschaftlern gelingt, unstrittig lebendige Organismen zu erschaffen, und es sogar noch länger dauern wird, bis diese Organismen eine ernsthafte Gefahr für unser Wohlergehen oder sogar für unser Überleben darstellen. Unsere angeborene Skepsis, die uns glauben lässt, so etwas könne überhaupt nicht passieren, in Kombination mit dem unbestimmten Gefühl, dem gesamten Unternehmen hafte ja sowieso ein Hauch von Spinnerei an, vermittelt uns eine trügerische Sicherheit, so dass unsere Wachsamkeit gegenüber den Experimenten der Wissenschaftler, die sich mit der Erforschung des Künstlichen Lebens beschäftigen, auch in Zukunft nur gering sein dürfte. Die KL-Forscher werden sich daher nur selbst kontrollieren können, ein Freiraum, der vermutlich so lange erhalten bleibt, bis die KL-Gemeinschaft einen Punkt erreicht, an dem das Wissen nicht mehr in seine Schranken verwiesen werden kann. Dann könnte man das Problem aber möglicherweise nicht mehr damit aus der Welt schaffen, die Computer einfach auszuschalten.

KI-Kritikern zufolge ist der Turing-Test falsch, weil es zwei Wege gibt, ihn zu bestehen: Der eine ist, dass Computer klüger, der andere, das Menschen dümmer werden, womit sie durchaus Recht haben könnten. Aber die Behauptung, dass es „keinen epistemologischen Unterschied zwischen künstlicher Intelligenz und der Akzeptanz schlecht entworfener Computer-Software“ gebe, weist die Arbeit auf dem Gebiet der künstlichen Intelligenz als eine Bemühung von der Hand, die auf einem intellektuellen Fehler beruht. Doch weder haben sie den Turing-Test als gültigen Test für Maschinenintelligenz widerlegt, noch gezeigt, dass das Scheitern dieses Tests die Unmöglichkeit intelligenter Maschinen beweist. Sie wollen die Idee diskreditieren, dass Maschinen intelligent sein können, weil sie Angst haben, die Besonderheit des Menschen aufzugeben. Eine intelligente Maschine würde eine der letzten Bastionen menschlicher Besonderheit infrage stellen, und daher leugnen sie ohne rationale Argumente, dass eine solche Maschine existieren könnte. Es macht ihnen - intellektuell zu große Angst.

Kritiker haben z.B. damit Recht, dass menschliches Handeln in der Welt sehr stark mit der Körperhaftigkeit des Menschen verbunden ist.

Wollen Sie wissen, wie es weiter geht?

Hier können Sie "Extropia - Das postbiologische Zeitalter Teil 1" sofort kaufen und weiterlesen:

Amazon

Apple iBookstore

ebook.de

Thalia

Weltbild

Viel Spaß!



Kaufen






Teilen