FGSV-Nr. FGSV 002/116
Ort Stuttgart
Datum 22.03.2017
Titel Die Zukunft der digitalen Maschine. Was kommt auf uns zu?
Autoren Prof. Dr. Dr. F. J. Radermacher
Kategorien HEUREKA
Einleitung

Die Frage »Was ist künstliche Intelligenz?« bewegt viele Menschen. Viele fragen sich, inwieweit eine Maschine jetzt oder in Zukunft tun kann, was der Mensch tut oder kann? Gibt es prinzipielle Unterschiede zwischen dem, was der Mensch kann und dem, was Maschinen können bzw. irgendwann können werden? Manche interessieren sich auch für die Frage nach der Intelligenz der Menschheit als Superorganismus. Dahinter steht die Überlegung, dass man die Menschheit in ihrer Gesamtheit als ein einziges Lebewesen sehen kann. Ist die Menschheit etwas anderes als eine »Herde von Menschen«? Von der Intelligenz her betrachtet geht es darum, ob die Menschheit eine eigene Form der Intelligenz besitzt, die mehr ist als die Summe der »Intelligenzen« der Menschen. Darüber hinaus kann man fragen, ob die Menschheit ein Bewusstsein von sich selber besitzt, dass etwas anderes ist als die Addition der Bewusstseinskapazitäten der einzelnen Menschen? Wie sieht die Zukunft der Menschheit aus bei all der Intelligenz, die uns auf der Ebene der Individuen, wie auf der Ebene der Menschheit als Ganzes auszeichnet?

PDF
Volltext

Der Fachvortrag zur Veranstaltung ist im Volltext verfügbar. Das PDF enthält alle Bilder und Formeln.

Abstrakt gesprochen stellt sich auch folgende Frage: Gibt es einen grundsätzlichen Unterschied zwischen einem Menschen als biologisches Wesen mit einem neuronalen Netz als Basis seiner Intelligenz im Verhältnis zu dem Vermögen eines heutigen oder zukünftigen Computers oder einer sogenannten Turing-Maschine als mathematischem Modell für die algorithmische Verarbeitung von Informationen. Erinnert sei in diesem Kontext an das Manifest einiger Neuro-Wissenschaftler »Das Manifest: Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung« aus 2004, exklusiv in Gehirn & Geist, Hirnforschung im 21. Jahrhundert, vor 11 Jahren mit folgender Botschaft (hier etwas pointierter wiedergegeben): »Über das Gehirn können wir mittlerweile viel sagen. Wir verfolgen einen großen Plan. Wir werden verstehen, wie das Gehirn arbeitet. Mit Computerwissenschaft hat das eher weniger zu tun«. Zugegebenermaßen geht es den Neurowissenschaftlern dabei nicht nur oder primär um das abstrakte Verstehen von Intelligenzleistungen, wie es in diesem Text (auch in Abgrenzung zu Begriffen wie Bewusstsein oder Empfindungsfähigkeit) thematisiert wird, sondern um Einsichten, die bei partiellen Ausfällen von Gehirnleistungen oder bei Krankheiten wie Alzheimer oder bei der Wiederaktivierung mentaler Fähigkeiten nach Krankheiten oder Unfällen von Nutzen sein können. Es geht im weiteren Sinne auch um neurochirurgische Eingriffe, Prothetik, Verknüpfungen zwischen Chips und Körper und um neue Medikamente.

Mittlerweile gibt es ein »Gegenmanifest« von 15 Wissenschaftlern aus 2014, publiziert in Psychologie heute, unter dem Titel Memorandum »Reflexive Neurowissenschaft« stärker aus dem Bereich der Psychologie und der Philosophie kommend, das fragt: »Was ist in den letzten 11 Jahren nach den Ankündigungen auf Seiten der Neuro-Wissenschaft herausgekommen und wo geht die Reise hin? Nähert man sich dem Phänomen »Intelligenz« von der Neuro-Seite her, oder ist das Phänomen »Intelligenz« doch eher eine Frage der Philosophie? Der Autor würde ergänzen: oder ist es vielleicht sogar eher eine Frage der Mathematik? Gibt es einen direkten Link zu den Computerwissenschaften? Wie ist der Bezug zur Turing-Maschine? Im Weiteren folgt eine Reihe von Hinweisen zu diesen Fragen. Ergänzend sei auf meine Studien »Bewusstsein, Ressourcenknappheit, Sprache« und Zur »Zukunft der digitalen Maschine«5 verwiesen. In ersterer findet sich insbesondere eine umfangreiche Aufarbeitung von Literatur aus dem Bereich der »Philosophie des Geistes« (»philosophy of mind«).

1. Superorganismen – eine interessante Abstraktionsebene

In Verbindung mit Fragen nach Intelligenz, Kreativität, Kognition, Wissen, Willen, Freiheit untersucht man heute in den verschiedenen Wissenschaften das Verhalten ganz unterschiedlicher Systeme. Steht hier zunächst der Mensch als Träger von Intelligenz im Vordergrund, so betrachtet man ebenso höhere Primaten, Insektenstaaten, Roboter, aber auch Mensch-Maschinesysteme, intelligente Informationssysteme, Unternehmen und Organisationen und manchmal auch Gaia, d. h. das gesamte »lebende System« der Biomasse auf dieser Erde. Eine Frage ist, unter welchem konzeptionellen Rahmen man derart unterschiedliche Systeme simultan analysieren kann, auch um zu versuchen, Erfahrungen und Einsichten aus einem Bereich in einen anderen zu übertragen (z. B. im Sinne der Nutzung von »Metaphern«). Ein solches Konzept sind Superorganismen. Dies sind »lebende« Strukturen, deren Überlebensfähigkeit von einer geeigneten Koordinierung des Miteinanders von Einzelsystemen abhängt, die ihrerseits lebensfähig sind, so wie ein Mensch aus Milliarden lebender Zellen besteht.

Im Evolutionsprozess ist der Übergang von einzelnen lebensfähigen Formen zu einem Superorganismus besonders spannend. Die Selbstorganisation durchläuft in der Regel einen (Evolutions-) Prozess und muss dabei für die beteiligten Einzelelemente »attraktiv« genug sein, um sich zu einem Ganzen zusammenzuschließen.

Praktische Fragen betreffen dann Punkte folgender Art, die allesamt Bezüge zur Überlebensfähigkeit und Performance derartiger Systeme besitzen: Kann ein Superorganismus Informationen speichern und verarbeiten? Verfügt ein Superorganismus über Intelligenz? Ist er kreativ? Hat er Gefühle? Wie trifft er Entscheidungen? Kann er kommunizieren? Besitzt er Bewusstsein? Dabei ist es aus Sicht dieses Grundsatztextes wichtig, alle diese Begriffe und Konzepte zu unterscheiden und z. B. nicht die Intelligenzseite des Menschen sofort allumfassend mit Bewusstsein und der Fähigkeit zu Empfindungen und Gefühlen und zum Treffen von Entscheidungen auszustatten. Wir haben aus gutem Grund verschiedene Worte für Intelligenz, Kreativität, Entscheiden und Bewusstsein, also gilt es an dieser Stelle zu differenzieren. Das tun wir auch in diesem Text. Die Intelligenzfrage steht im Vordergrund. Das Dokument ist eingebettet in langjährige Überlegungen des Autors zu dieser Thematik. Die umfassendste Darstellung findet sich in »Bewusstsein, Ressourcenknappheit, Sprache«, wo Intelligenz, Bewusstsein, Freiheit, Qualia etwas ausführlicher und im Kontext eines natürlichen Verlaufs des Evolutionsprozesses zu diesem Thema diskutiert werden.

2. Wissen – verschiedene Arten der Repräsentation

Wissen ist von Intelligenz zu unterscheiden. Rein lebenspraktisch setzt aber intelligentes Verhalten vor allem sehr viel Wissen über Details voraus. Intelligenzoperatoren (wie etwa logische Folgerungen) erlauben es, aus Wissen neues Wissen abzuleiten. Oftmals hypothetisieren wir in »unbekanntem Gelände«, entwickeln Hypothesen oder gar Theorien. Detailwissen ist hilfreich, um Hypothesen zu »falsifizieren«, also als sicher falsch auszusondern, wenn sie nämlich Fakten oder Erfahrungen widersprechen. Dies verbessert die Qualität der Hypothesenbildung erheblich.

Im Weiteren unterscheiden wir mit Bezug auf die Studien vier Repräsentationsformen von Wissen. Wissen wird dabei in unterschiedlichen Formen der Musterbildung und – transformation abgelegt und umgesetzt. In einer mehr klassischen Begriffswelt geht es dabei um folgende Mechanismen und Ebenen:

(1) Wissen in Form dreidimensionaler Passung

(2) sensomotorisches Wissen bzw. Wissen in Form von Können, repräsentiert in dynamischen Gleichgewichten, z. B. in neuronalen Netzen

(3) Wissen auf der Ebene von Sprache, Logik, symbolischen Kalkülen, z. B. das klassische Wissen in der Philosophie

(4) Wissen in Form mathematischer oder anderer komplexer Modelle der Realität

Die verschiedenen Ebenen des Wissens, wie sie hier betrachtet werden, sind in der biologischen Evolution eine nach der anderen aufgetreten und bauen konkret materiell aufeinander auf, d.h. die jeweils abstraktere, höhere Ebene ist materiell als spezielle Ausprägung der darunter liegenden Ebene realisiert. D.h. letztlich auch, dass alles Wissen auf dieser Welt auf Mechanismen der Passung zurückgeführt werden kann.

Bewusstsein, Lernen, Kreativität, Freiheit, Kommunikationsverhalten sind weitere interessante Themen, die in den oben genannten Referenztexten diskutiert werden und die teils auch einer technischen Analyse zugänglich sind, aber hier aus Platzgründen nicht detaillierter behandelt werden können. Interessant ist in diesem Kontext auch das wichtige Thema des Treffens von Entscheidungen unter Restriktionen, konkurrierenden simultanen Zielvorstellungen und Unsicherheiten über die Zukunft. Dies wird in anderen Untersuchungen genauer behandelt.

3. Was wollen wir unter Intelligenz verstehen?

Im Weiteren wird holzschnittartig eine mögliche Sicht auf die in Abschnitt 1 und 2 formulierten Fragen aus Sicht des Autors gegeben. Dabei wird Intelligenz begrifflich klar von Bewusstsein, Gefühl und weiteren Themen, wie z. B. Kreativität oder Willen, getrennt. Diese bilden andere wichtige Dimensionen des geistigen Lebens der Menschen, die allesamt mit Intelligenz zusammenhängen, aber doch auch eigenständige Themen sind. Den Hintergrund bildet, wie oben schon dargestellt, der Evolutionsprozess und die Frage »Wie kann man sich im Rahmen der biologischen Evolution, verstanden als einen Prozess der Selbstorganisation der Materie, den Weg zu unserer heutigen Welt vorstellen?«

Lassen Sie mich die weiteren Überlegungen mit einer Analogie beginnen. Wir betrachten zunächst statt der komplexen Thematik »Intelligenz« die biologische Fähigkeit mancher Lebewesen zum »Fliegen« und vergleichen diese mit verfügbaren technischen Lösungen. Wir können als eine biologische Inkarnation des Fliegens einen Adler nehmen und als technische Inkarnation einen Airbus. Die Frage ist dann im Vergleich beider Alternativen die folgende: Wer versteht hier wirklich etwas vom Fliegen? Und was ist eigentlich die bessere Form des Fliegens? Haben wir technisch im Fliegen etwas hinbekommen, was sich mit einem Adler vergleichen kann? Oder ist der Adler irgendwie doch das wirkliche Fliegen und der Airbus »nur« eine zweitklassige technische Annäherung an das Thema? Wenn man diese Frage genau prüft, wird man beiden Seiten, dem Adler wie dem Airbus zugestehen, dass sie viel »vom Fliegen« verstehen.

Meine Aussage ist die folgende: Der Adler ist in seinen Flugbewegungen sehr elegant, und es ist bewundernswert, was ein Adler all das schafft, was er fliegerisch schafft, ganz abgesehen davon, dass er auch noch »Babys« in die Welt zu setzen in der Lage ist. Das ist insgesamt schon beeindruckend. Andererseits ist aber auch folgendes richtig: Wenn man diverse Tonnen Material einigermaßen zuverlässig von Singapur nach Dresden und zurück transportieren will, dann nimmt man besser einen Airbus. D. h., dass ein Airbus in vielen Dimensionen dem Adler extrem überlegen ist, auch wenn es in anderen Fällen genau umgekehrt ist. Die Realisierungen Adler und Airbus sind offenbar extrem verschieden. Dennoch: Man kann nicht sagen, dass nur der Adler etwas vom Fliegen versteht oder dass der Airbus eigentlich kein richtiges Fliegen realisiert.

Die Analogie bezüglich Intelligenz (hier klar getrennt von Bewusstsein und vor allem Gefühl (Qualia)) sieht nun wie folgt aus: Der Mensch ist auf seine Art intelligent, aber die Maschine mittlerweile auf ihre Art auch. Mancher zweifelt prinzipiell, dass je eine »wirkliche« Silizium- oder Chip-basierte Intelligenz möglich sein wird. Andere fragen provokativ zurück, ob eine »Fleisch-basierte Intelligenz«, wie die des Menschen, prinzipiell überhaupt vollumfänglich intelligent sein kann.

4. Details und Qualitäten statt eines »Streit um Worte«

Ich empfehle an dieser Stelle, sich mit Qualitäten und Details zu beschäftigen und mit der Frage, wie sich Leistungsniveaus über die Zeit verändern, statt einen »Streit um Worte« zu führen. Interessant ist z. B., wie lange die Menschen geglaubt haben, dass Schach eine (Intelligenz-)Domäne sei, in der die Maschine gegen den Menschen keine Chance hat. Das galt bis 1996, bis IBM mit »Deep Blue« den amtierenden Schachweltmeister besiegt hat.

Oftmals wird der Sieg als Umsetzung eines (primitiven) »brute-force« Algorithmus abgetan, der angeblich alle möglichen Stellungen »durchprobiert«. Aber das ist falsch. Das Geheimnis eines leistungsfähigen Computer-Schachsystems sind nämlich nicht nur die vielen Stellungen, die es betrachten kann, sonder die Stellungsbewertungsfunktion, mit deren Hilfe es eine beliebige Stellung statisch bewertet und damit insbesondere bezüglich verschiedener Stellungen eine Bewertung abgibt über die Qualität der Stellungen im Vergleich zueinander. In der Bewertungsfunktion steckt also ein substanzieller Teil der »Intelligenz« des Computer-Schachsystems.

Jetzt wird mancher sagen, dass aber der Mensch sich das alles ausgedacht hat. Das stimmt nicht ganz, weil man das System so gebaut hat, dass es an der Bewertungsfunktion selber Veränderungen vornimmt. Dann kann man allerdings immer noch sagen, dass der Mensch sich den Meta-Algorithmus ausgedacht hat, gemäß dem diese Veränderungen erfolgen. Allerdings muss man auch beim Menschen feststellen, dass er, in dem , das er tut, in einem genetisch und kulturell geprägten Evolutionsrahmen operiert, in dem andere oder die Natur Voraussetzungen geschaffen haben, auf die es als Individuum aufbaut. Und zwar gemäß der klugen Beobachtung: »Wir sind alle Zwerge auf den Schultern von Riesen«.

Es gibt bezüglich technischer Intelligenz eine weitere Steigerung, die vor kurzem erfolgt ist, nämlich ein weiterer Erfolg von IBM nach Deep Blue 1996. Nachdem Schach erfolgreich gemeistert war, kam in den letzten Jahren »Jeopardy« an die Reihe. Das entsprechende IBM-Computersystem heißt WATSON. Jeopardy ein beeindruckendes US-Quiz, härter als das deutsche Fernsehquiz »Wer wird Millionär«. Bei »Wer wird Millionär« müssen die Kandidaten auf Fragen die Antworten finden. Wenn ein System das hinbekommen würde, würden wir Menschen das sofort abqualifizieren und uns den Erfolg wie folgt erklären: Das System hat lange Listen von Fragen mit Antworten, geht die Fragen durch und findet hoffentlich die Antwort. Das ist sicher naiv gedacht, wäre aber eine zu erwartende Reaktion. Bei Jeopardy ist die Situation grundsätzlich anders. Da wird die Antwort gegeben und nach der Frage gefragt. Vom Engineering her würde man sagen, dass das ein Reverse-Engineering-Prozess ist.

Wie war das Ergebnis? WATSON hat bei Jeopardy vor laufenden Fernsehkameras alle menschlichen Champions besiegt. Das waren Personen, die über viele Jahre als »Stars« im Fernsehen mit Jeopardy richtig viel Geld verdient haben.

These 1

Menschliche und technische Intelligenz sind verschiedene Methoden, bestimmte schwierige Aufgaben zu lösen. Intelligenz umfasst hier nicht die Themen Bewusstsein oder Gefühl (Qualia), das sind andere wichtige, aber eigenständige Themen. In Bezug auf Intelligenz im Sinne von Problemlösungsqualität in nicht-trivialen Themenfeldern ist Technik in manchen Gebieten heute schon weiter als der Mensch

5. Die IT-Revolution

Woher kommen die großen Veränderungen in Bezug auf technische Realisierungen von Intelligenz, deren Zeugen wir sind? Sie sind im Wesentlichen eine Folge der Tatsache, dass wir im Bereich IT die höchste Innovationsgeschwindigkeit erleben, die es je gegeben hat. Im Kern steckt dahinter das s. g. Mooresche Gesetz, das uns jetzt seit Jahrzehnten alle 20 Jahre etwa einen Faktor 1000 an Effizienzsteigerung bei elementaren Rechenoperationen bringt (d. h. mindestens eine Verdoppelung alle 2 Jahre). Dahinter wiederum steht, dass wir Informationseinheiten (Bits) auf immer kleinerem physikalischem Raum kodieren können, was die unglaubliche Miniaturisierung, und damit auch Beschleunigungen und Kostensenkung bei diesen Prozessen, deren Zeuge wir sind, nach sich zieht. Dabei wird deutlich, dass Information nur sehr schwach mit einer konkreten physikalischen Repräsentation gekoppelt ist. Das ist der tiefere Grund dafür, warum Moore´s Law möglich ist. Anders ausgedrückt: Für eine Addition ist es egal, wie groß man die Nullen und die Einsen hinschreibt. Das Additionsergebnis ist davon unabhängig. Die Situation ist an dieser Stelle ganz anders als bei einem Auto, das immer mindestens so groß sein muss, dass ein Mensch hineinpasst.

Die Folge der unglaublichen Fortschritte im Bereich IT sind heute Systeme, etwa im Bereich Micro-Trading von Finanztiteln, die im Millisekunden-Bereich Verträge über Millionen Euro abschließen. Wesentliches passiert dabei, ehe ein Mensch überhaupt merkt, dass etwas im Gang ist. In Zukunft wird sich das alles weiter Potenzieren und zwar durch das Internet der Dinge, das wiederum eine Folge davon sein wird, dass sehr preiswerte, leistungsfähige Chips verfügbar sein werden. Chips der heutigen Leistungsfähigkeit in Mobiltelefonen oder PCs werden in 20 Jahren nur noch Cent Beträge kosten. Dies wird zur Folge haben, dass wir in Milliarden technischen Geräten intelligente Komponenten verfügbar haben werden, die ihrerseits kommunizieren. Über das Internet der Dinge werden technische Systeme Dinge tun können, die wir als Menschen heute nicht tun können.

Als Ergebnis der beschriebenen Prozesse im IT Bereich liegen heute unglaublich große Datenmengen zu ganz verschiedenen Themenbereichen vor (BIG DATA). Zum Beispiel produziert die Europäische Union einen nie endenden Datensatz von Übersetzungen von einer europäischen Sprache in eine andere. Aus solchen und anderen Daten lassen sich mit statistischen Methoden einerseits Übersetzungssysteme entwickeln bzw. ständig weiter verbessern, andererseits interessante Einblicke in Ergebnisse parlamentarischer Arbeit ableiten.

Es entstehen so immer neue Anwendungen und Aufgaben, die häufig von Maschinen übernommen werden können. Potenziell besteht auch die Perspektive, viele Aufgaben von Maschinen übernehmen zu lassen, die heute noch Menschen ein gutes Einkommen bescheren. Das ist im Prinzip nichts Neues. Es ist ein Prozess, den wir seit hunderten von Jahren beobachten. Beginnend mit der Ersetzung von Menschen durch Maschinen in der Landwirtschaft beim Übergang in die Industriegesellschaft, später dann bei der Ersetzung von Arbeitern in Fabriken durch »Wissensarbeiter« beim Übergang in die Wissensgesellschaft. Es ist das ein Prozess, den man in der angelsächsischen Welt als »race between education and technology« bezeichnet.

Das alles kann und wird sich weiter entwickeln und das geschieht heute schon in Richtung analytischer Berufe. Also in Richtung von Berufen, die substantiellen intellektuellen Input brauchen. Beispiele sind die Analyse von Gerichtsurteilen, die Analyse von Patientenbildern und Patientendaten in der Medizin (insbesondere auch bei bildgebenden Verfahren), die Vorbereitung von Entscheidungen über Versicherungsverträge, die Übersetzung von Dokumenten, die statistische Analyse von Datensätzen. Alle diese anspruchsvollen intellektuellen Aufgaben kommen zunehmend in den Blickwinkel einer teilweisen Substitution durch Maschinen. Das kann hochwertige Arbeitsplätze, die teilweise erst in den letzten Jahren entstanden sind, kosten, wobei wir nicht wissen, ob es für diese Menschen zukünftig eine attraktive neue Alternative auf dem Arbeitsmarkt geben wird.

In den heute schon erfolgenden Prozessen transformiert sich die Menschheit in einen hybriden Mensch-Technik-Superorganismus, der in 20 Jahren wahrscheinlich schon 30 Milliarden »intelligente« Komponenten umfassen wird. Davon wird der weitaus größte Teil kommunikationsfähigen Maschinen mit »Intelligenzpotentialen« bestehen. Zur »Intelligenz« dieser Komponenten gehört insbesondere die Fähigkeit, den ganzen Apparat von IT-Protokollen und Sicherheitsmechanismen zu beherrschen, der Voraussetzung für die Internetfähigkeit technischer Systeme ist. Wobei Maschinen auch schon heute den größten Teil der Kommunikation im Internet untereinander ausführen.

Die Frage ist, was es für die Menschheit bedeuten wird, wenn sie Teil eines derartigen Informationsnetzwerks sein wird. Aktuell bauen sich z. B. an dieser Stelle massive Probleme bzgl. der Eigentumsfrage auf, und das wird beim weiteren Ausbau des »Internet der Dinge« noch viel stärker der Fall sein. Geschäftsmodelle in diesem Bereich platzieren sich gemäß aktueller Thematisierung in den Medien am Übergang von der »Besitzgesellschaft« zur »Verfügungsgesellschaft«. Apple hat bereits schon bestimmte Apps gesperrt und hat auf seiner Musik-Download-Plattform iTunes schon die Sperrung von zuvor bereits erworbenen Titeln vorgenommen. Amazon sperrt immer wieder Benutzeraccounts von Benutzern von Kindle-Lesegeräten wegen angeblicher Urheberrechtsverletzungen, was für die Betroffenen den Verlust der gesamten digitalen Benutzerbibliothek zur Folge haben kann. Und wer heutzutage ein Auto erwirbt, unterschreibt im Kaufvertrag oftmals eine Passage, die dem Hersteller den Zugriff auf wichtige Daten erlaubt, z. B. auf Fahrzeugdaten, die im Betrieb des Fahrzeugs anfallen. Sie verbleiben im Besitz des Herstellers bzw. gehen auf diesen über. Hier wie an anderer Stelle wird der Gesetzgeber Klarstellungen grundsätzlicher Art herbeiführen müssen.

6. Die Welt der Algorithmen und die Turing-Maschine

Wir erleben heute, dass die algorithmische Verarbeitung von Information immer mehr an ökonomischer Bedeutung gewinnt. Dadurch wird das Thema als solches immer mehr Menschen bekannt. Satellitenkommunikation, Navigationssysteme im Automobil, MicroTrading an Börsen, dies alles sind Themen der Algorithmik. Algorithmik spielt auch eine Rolle, wenn wir technische Bauteile oder Häuser mit CAD-Modellen beschreiben, aus diesen Beschreibungen Bearbeitungsmodelle algorithmisch ableiten, die wir dann an Fräsmaschinen oder »Printer« schicken, die dort Teile herstellen oder heute teilweise auch schon »ausdrucken«. Diese Veränderung »pflügt« die Welt um. Der vor kurzem verstorbene frühere Chefredakteur der Frankfurter Allgemeine Zeitung, Frank Schirrmacher, hat in seinem Buch »EGO – Das Spiel des Lebens« die Macht der Algorithmen beklagt. Er sah eine große Gefahr für die Zivilisation, wie wir sie kennen.

Algorithmus bedeutet im Wesentlichen eine Abfolge von Operationen, die von einem Ausgangszustand zu anderen Zuständen führen, und zwar in einer Sequenz von Bearbeitungsschritten, bis (hoffentlich) ein angestrebter Endzustand erreicht wird. Abhängig von Zwischenzuständen oder anderen Parametern erfolgt auf dem Wege der Abarbeitung der Schritte der Übergang zu weiteren Zuständen. Wir haben es also auch mit einem Algorithmus zu tun, wenn ein Steinzeitmensch aus einem Feuerstein eine Klinge schlägt oder aus dem Stoßzahn eines Mammuts ein so beeindruckendes frühzeitliches Kunstwerk wie den Löwenmenschen herstellt, den man zurzeit im Ulmer Museum bewundern kann. Den meisten Menschen in unserer Zivilisation ist zumindest der Algorithmus der Addition von Zahlen bekannt, wobei Zahlen dazu additiv als Vielfache von Exponenten der Zahl 10 dargestellt werden. Dies ist eine sehr geschickte Kodierung, die übrigens die Erfindung der »0« voraussetzt und stellt einen zivilisatorischen Durchbruch dar, den wir in Europa dem arabisch-indischen Kulturraum zu verdanken haben. Ohne diese methodischalgorithmische Innovation, die Europa zu Zeiten der »ersten Blüten des Islams« um das Jahr 1000 erreichte und sich dort dann im 12. Jahrhundert allgemein durchsetzte, gäbe es unsere Zivilisation in der heutigen Form nicht.

Man kann sagen, dass das technische Potential einer Zivilisation insbesondere durch die Leistungsfähigkeit der ihr verfügbaren Algorithmen festgelegt ist. Vielfältige (mathematische) Algorithmen stecken in praktisch allen Maschinen. Die Mathematiker sprechen deshalb gerne von »Mathematics Inside«, so wie Intel als Chiphersteller seinerzeit mit Bezug auf PCs der Firma IBM, die Intel Chips nutzen, Werbung machte mit dem Slogan »Intel Inside«.

In der Mathematik und theoretischen Informatik gibt es ein gutes Verständnis für die Menge dessen, was man algorithmisch behandeln kann. Im weitesten Sinne ist das die Welt des Berechenbaren. Die Inkarnation der Berechnungsmaschine ist, wie erwähnt, ein Computer, versehen mit entsprechenden peripheren Systemteilen (z. B. Eingabetastatur, Scanner, Drucker etc.). Das den Computer abstrahierende mathematische Konstrukt ist die sogenannte Turingmaschine. Dies ist eine abstrakte, konzeptionell sehr einfache, vom Leistungsspektrum her aber schon maximal mächtige Maschine, die auf einem endlosen Schreib- und Leseband operiert.

Abhängig von dem Zustand, in dem sie sich befindet und abhängig von einem Zeichen auf dem Band, das sie gerade liest, kann die Maschine (nur) wenige elementare Operationen (wie das Drucken eines Zeichens auf das Band und einen Schritt nach links oder rechts gehen) vornehmen. Sie begibt sich dann gleichzeitig in einen neuen Zustand. Dieser Prozess wird so lange fortgesetzt, bis sie stehen bleibt. Wobei eine interessante Frage, die nicht generell vorab beantwortbar ist, diejenige ist, ob die Maschine für jede Eingabe mit  Sicherheit  irgendwann  stehen  bleiben  wird  oder  nicht  (sogenanntes  HALTEPROBLEM).

Insofern als das, was wir üblicherweise als Intelligenz wahrnehmen, viel damit zu tun hat, dass man über entsprechende Algorithmen verfügt und diese ausführen kann, ist die zunehmende Durchdringung der Welt mit abstrakt kodierten Algorithmen einerseits und mit Maschinen, die Algorithmen abarbeiten können, andererseits ein dominanter zivilisatorischer Prozess. Dieser hat mittlerweile zu einer Welt von 7 Mrd. und bald 10 Mrd. Menschen geführt. Das wäre ohne eine entsprechende Technikentwicklung und ohne entsprechende Algorithmik nicht möglich gewesen.

Zusammenfassend sei an dieser Stelle noch einmal festgehalten, dass die TuringMaschine die mathematische Inkarnation des Rechners ist. Die Herausarbeitung der Leistungsfähigkeit dieser einfachen Maschine durch große Denker wie Gödel, Turing etc., ist eine der ganz großen intellektuellen Leistungen der Menschheit im 20. Jahrhunderts. Viele werden auch wissen, dass Turing einer der Personen auf britischer Seite war, die die deutsche Verschlüsselungsmaschine »Enigma« im Zweiten Weltkrieg dechiffriert haben – mit erheblichen Auswirkungen auf den Kriegsverlauf. Dieser Turing ist auch die Person, nach der der sogenannte Turing-Test auf die Intelligenz von Maschinen benannt ist:

Die wichtigste Aussage über die Turing-Maschine ist wohl, dass sie im Sinne der sogenannte Church-Turing-These im Prinzip alles berechnen kann, was überhaupt berechenbar ist. Ferner, dass es keine universelle Turing-Maschine gibt, die für jede Turing-Maschine feststellen kann, ob sie für jede Eingabe zum Halten kommt oder nicht. Letzteres ist das oben schon angesprochene Halte-Problem der theoretischen Informatik, eine wichtige Testfrage für Algorithmen, die gemäß diesem Satz nicht generell algorithmisch beantwortbar ist. Das hat viele Konsequenzen, z. B. für die Unmöglichkeit, sichere Softwaresysteme zu bauen.

Diese »Unmöglichkeitsaussage« ist wiederum eng verbunden mit der berühmten, auf den österreichischen Mathematiker Gödel zurückgehende Feststellung, dass es wahre Aussagen der Arithmetik gibt, die nicht beweisbar sind.

Der Satz von Gödel ist interessanterweise für einige Beobachter das Einfallstor für metaphysische Spekulationen über das Gehirn und, vielleicht noch verwunderlicher, zu Büchern zu Quantentheorie und Quantenrechnern und die Nutzung dieses Zusammenhangs, um die angebliche Überlegenheit des Menschen gegenüber der Maschine materiell zu unterfüttern. Diese mysthische »Aufladung« ist in der Sache nicht angemessen und irreführend. Die Quantentheorie hilft hier auch nicht weiter bzw. hat mit dieser Frage nichts zu tun. Quantenrechner, an denen heute gearbeitet wird, können möglicherweise exponentielle Laufzeitverbesserungen bei bestimmten kombinatorischen Optimierungsaufgaben bewirken, und zwar bis zu einer bestimmten Exponentengröße, die wiederum von der Qualität des Quantenrechners abhängt. Potentiell kann das einige heutige Verschlüsselungsmethoden von Daten, z. B. solche, die auf dem Finden der Zerlegung von Nicht-Primzahlen in Primzahlfaktoren beruhen, »aushebeln«.

Ansonsten gilt auch: Unsere immer schnelleren Rechner bringen im Prinzip nicht prinzipiell Neues (mehr) hervor, wohl aber die rein lebenspraktisch bzw. ökonomisch wichtige Pragmatik eines immer höheren Tempos. All die Moden in der IT, aktuell »Cloud« und »Big Data«, sind ein Thema der Masse und des Tempos, nicht des Prinzipiellen. Und das gilt genauso für komfortable Hilfssysteme, in der Mathematik, z. B. »Mathematica«, Matlab, SciLab (Open Source) oder Wolfram Alpha (online). Solche Systeme haben das Arbeiten der Mathematiker bzw. in der Mathematik revolutioniert. Man kann jetzt sehr viel stärker »experimentieren« und sich z. B. »Beispiele« ansehen, was früher am Rechenaufwand gescheitert wäre. Tatsächlich gilt Ähnliches im Beweisen mathematischer Aussagen, die das Abarbeiten vieler Fälle beinhalten. Der Beweis des Vierfarbensatzes oder der Kepler’schen Vermutung (kompakteste Kugelpackung) sind von dieser Art.

Die Turing-Maschine, in mehr oder weniger komfortabler Ausstattung, treibt bis heute die IT in der praktischen Anwendung, und zwar in »schwindelerregende Höhen«. Heute hat der Chip im Mobiltelefon bzw. I-Pad eine Leistungsfähigkeit, die mehrere tausend Mal oberhalb derjenigen des Großrechners liegt, mit dem die ISA die Apollo Mission berechnet haben. Der kostete 100 Millionen Dollar, der heutige Chip 5 Euro. Er wird in 20 Jahren 5 Cent kosten und als Folge dieses niedrigen Preises eine massive Ausdehnung des »Internet der Dinge« ermöglichen.

7. Die »Neuro-Maschine Gehirn«

Nach diesen Ausflügen in die praktische Sphäre von Intelligenz wie in die Welt der Algorithmen und des Entscheidens blicken wir jetzt aus abstrakter Sicht, also aus der Sicht von Mathematik und Informatik auf unser Gehirn bzw. Nervennetz. Wie sieht es aus dieser Sicht mit unserer biologischen Intelligenz (»Intelligenz auf Basis von Fleisch«) aus und was hat diese gegebenenfalls mit der Intelligenz von Computern (»Intelligenz auf der Basis von Siliziumchips«) zu tun oder auch nicht? Ist die These vieler NeuroWissenschaftler richtig, dass die Computerseite uns über die menschliche Intelligenz im Wesentlichen nichts viel sagen kann. Oder ist die Lage anders? Aus meiner Sicht ist das eine Zentralfrage in der wissenschaftstheoretischen Debatte um die »Natur der Intelligenz«. Und das Ergebnis, zu dem ich komme, ist anders als das vieler Vertreter der »Neuro-Seite« bzw. auch der Philosophie und Psychologie.

These 2

Es ist ein Denkfehler zu glauben, dass der Mensch mit seinem Gehirn als biologischem neuronalem Netz in den wesentlichen Dimensionen seiner Intelligenz völlig verschieden ist von Computern bzw. abstrakten Maschinen (Turing-Maschine). Im Gegenteil ist die Intelligenz des Menschen nur richtig verstehbar, wenn man präzise erforscht, wie die Evolution in unserem biologischen, neuronalen Gehirn eine Turing-Maschine (begrenzter Leistungsfähigkeit) realisiert hat und wie diese ggf. in ihrer Leistungsfähigkeit weiter verbessert werden kann.

Lassen Sie mich folgende Bemerkung zur Einordnung vorweg machen. Wir wissen mittlerweile, dass das menschliche Gehirn inklusive Nervensystem und Rückenmark ein neuronales System ist und auf Basis elektrischer und chemischer Signalübertragungen operiert. Die Kombination dieser beiden Übersetzungswege von Signalen, die im »Transport« von Informationen analog operieren, dann über das »Auslösen« von Signalen beim Überschreiten von Schwellenwerten in Synapsen, in Teilen auch digital bzw. diskret, eröffnet viele interessante Möglichkeiten zur Organisation von Informationsverarbeitungsprozessen. Die in Synapsen zusammenfließenden elektrischen Potentiale werden (teils mit Vorzeichenwechsel) »aufaddiert« (also teils auch subtrahiert) und liegen dann unter oder oberhalb kritischer Schwellenwerte, wobei das Überschreiten zur Aussendung eines elektrischen Impuls führt.

Interessant ist dabei auch, dass die häufige Benutzung von Signalwegen zur Folge hat, dass diese sich stärker ausprägen, durchlässiger werden. Auf diese Weise wird durch »Einschleifen« Wissen hardwareartig gespeichert. Zugleich wird über schnelle Verbindungen die gleichzeitige Aktivierung ganzer Synapsengruppen bewirkt (sogenannte neuronal assemblies). Ebenso werden solche assemblies miteinander in Verbindung gebracht, inklusive einer gegenseitigen Tendenz zur Anregung bei Aktivierung einzelner assemblies. Unser neuronales System umfasst ungefähr 1.000 Milliarden Neurone. Diese sind im Mittel mit etwa 10.000 Verbindungen pro Neuron zu anderen Neuronen ausgestattet.

Im Wesentlichen gibt es in diesem Netz nur sogenannte innere Neuronen. Hinzu kommen zusätzlich etwa 200 Millionen sensorische Neurone, die die Verbindung nach außen in die Welt herstellen, also die Anbindung an die uns umgebende Realität, also den erforderlichen Datenaustausch mit der Realwelt vornehmen, der Voraussetzung ist für z. B. sehen, hören, riechen, fühlen. Diese Neuronen sind unsere einzigen direkten Verbindungen zur Welt. Können wir diese Neuronen technisch irgendwie so stimulieren, dass die Wirkung so ähnlich ist wie die Stimulierung durch die Realität, können wir Realität und Stimulierung nicht mehr unterschieden. D. h. unsere einzigen Brücken zur Realität bilden Potentialdifferenzen an den Kontaktstellen unserer sensorischen Neurone zur Außenwelt. Moderne Filme sind übrigens schon sehr gut darin, bei uns die Vorstellung einer Realität zu erzeugen, die u. U. gar nicht existiert, häufig aus physikalischen Gründen gar nicht real existieren kann. Mit viel Fantasie können das manche in ihrem persönlichen »Kopfkino« auch ganz ohne jeden stimulierenden Input von außen.

Interessant ist die folgende Feststellung: Es sind im Verhältnis nur wenige Neurone, die sensorische Verbindung nach außen haben. Hinzu kommen ungefähr noch 10-20 Millionen Neurone, die aktorisch sind, mit denen wir also in der Welt Dinge tun bzw. tun können, z. B. zupacken oder gegen Fußbälle treten. Das sind also noch einmal deutlich weniger Neurone als der sensorische Anteil.

Um die entscheidende Aussage noch einmal zu verdeutlichen. Man nimmt als Mensch mit seiner Sensorik gewisse Informationen aus der Außenwelt auf, die sensorischer Natur sind und es uns erlauben, uns ein »Bild« von der Welt und von unserer Einbettung in diese Welt zu machen. Der sensorische Input-Strom ist vergleichsweise klein. Dann verarbeitet das Gehirn die Daten intern in aufwendigen »Rechner«-Prozessen, wobei »rechnen« für Kaskaden eines neuronalen Signalaustauschs zwischen inneren Neuronen steht. Wir bauen dabei ein Modell der Welt auf, überlegen gegebenenfalls, was wir tun können und wollen und treffen manchmal Entscheidungen. Als Folge von all dem werden gelegentlich aktorische Neurone aktiviert, mit denen wir in der Welt etwas tun. Aktorische Neurone gibt es noch viel weniger als sensorische.

Das ist eine großartige Leistung. Ähnliche Leistungen finden wir natürlich in der gesamten Tierwelt. Wahrscheinlich ist uns der Puma in vielen derartigen Aufgaben überlegen, aber wir sind als Menschen auch schon ganz gut. Mensch und Puma haben von außen betrachtet ähnlich aufgebaute Gehirne und Nervennetze. Beim Menschen und Menschenaffen gilt das in noch stärkerem Umfang. Woraus resultieren dann die Intelligenzunterschiede zwischen uns und den anderen Tierarten? Ähnlich ist es übrigens mit dem Genom, also der Erbinformation. Auch hier gibt es zwischen den Tieren und uns viele Übereinstimmungen. Wo kommen dann die Unterschiede zwischen den Tieren und uns Menschen her? Sie müssen offensichtlich eine Folge von Unterschieden in der Organisation eines ansonsten sehr ähnlichen Ausgangsmaterials sein. Was sind das für Organisationsprozesse? Wo übersetzen sich kleine Unterschiede in gigantische, lebenspraktische Verschiedenheiten?

8. Wie leistungsfähig ist unsere »Neuro-Maschine«?

Interessant ist, dass wir mittlerweile auf der abstrakten (mathematischen) Ebene gut verstehen, was ein biologisches Nervennetz, wie das des Menschen (im Sinne der Mathematik), prinzipiell zu leisten vermag. Ein solches neuronales Netz kann z. B. mit seinen eingebauten Lern- und Anpassungsalgorithmen die Approximation (d. h. angenäherte Realisierung) beliebiger, auch hochdimensionaler Input-Output Funktionen eines regulären Typs lernen. Der wichtigste Satz über diese Netze, der nachfolgende Satz 1, besagt, dass so jede genügend glatte Funktion (= regulärer Typ) gelernt bzw. realisiert werden kann. Die Grenze der Erlernbarkeit dieser Funktionen ist also ihre »Glattheit«. Die Funktion muss dazu im Wesentlichen stetig sein, sie darf aber eine begrenzte Zahl von Unstetigkeitsstellen haben. Wirklich hässlich darf sie nicht sein (für die Mathematiker: eine Cauchy Funktion ist neuronal nicht erlernbar). Generell gilt die Nicht-Erlernbarkeit für alle Funktionen, die (ähnlich einem nah-chaotischen System) bei kleinsten Variationen von Parametern ganz unterschiedliche Ergebnisse bzw. Aktionen erfordern. »Hässliche« Funktionen kann ein neuronales Netz also nicht lernen, glatte wohl. Alles Glatte mit gelegentlichen Sprüngen, wie die Führung des Schlagarms beim Tennis und Golf oder das Gleichgewichthalten beim Fahrradfahren sind damit machbar. Der entsprechende mathematische Satz lautet wie folgt:

Satz 1: Neuronale Netze können »gutartige« Funktionen approximieren

Wird einem neuronalen Netz ausreichender Größe eine adäquate Sequenz von Übungsaufgaben zum Lernen einer Funktion verfügbar gemacht, kann dieses Netz im Prinzip jede stetige (sogar jede messbare) Funktion lernen. Die hohe »Plastizität« neuraler Netze kommt darin zum Ausdruck.

Da insbesondere alle logischen Operationen in die Klasse der glatten Funktionen fallen, gilt auch der folgende Satz 2.

Satz 2:

Neuronale Netze können alle binären logischen Operationen, damit auch den Folgerungspfeil (Modus Ponens) lernen. Hinweis: Aus der Schaltungstheorie ist bekannt, dass man alle logischen Schaltungen aus binären Operationen aufbauen kann. Diese sind also ebenfalls erlernbar. Auf diese Weise kann man z. B. auch beliebige Klammerprozesse organisieren. Insbesondere sind neuronale Netze in ihrer Gesamtheit so leistungsfähig wie (abstrakte) Rechner, d. h. berechenbarkeits-vollständig.

Die Sätze gelten für die mathematische Abstraktion neuronaler Netze. Nach allem, was wir wissen, verhält sich unser Gehirn im Prinzipiellen so, dass es die behaupteten mathematischen Leistungen rein lebenspraktisch zu erbringen vermag. D. h., dass von Details des Verhaltens des Gehirns für die Konsequenzen dieser Feststellung abstrahiert werden kann – das ist dann für diese Seite des prinzipiellen Verstehens von Intelligenzleistungen nicht erheblich – so wenig, wie man die Details eines Chips oder einer Schaltung verstehen muss, um sagen zu können, was ein Rechner im Prinzip leisten kann und was nicht. Bzgl. der konkreten Performance, z. B. Schnelligkeit oder Verhalten unter schwierigen äußeren Bedingungen, z. B. 40°C Außentemperatur und hohe Luftfeuchtigkeit, sieht das natürlich anders aus. Diesen Zusammenhang weiter zu erhellen, ist ein wichtiger Beitrag experimenteller Forschungen zu Funktionen von Gehirnen. Hier sind auch viele Beiträge des vor kurzem verstorbenen Gehirnforscher Valentin Braitenberg angesiedelt, mit dem der Autor über viele Jahre zusammengearbeitet hat.

These 1 und 2 stellen die vielleicht wichtigsten abstrakten Eigenschaften unseres Gehirns auf der neuronalen Seite dar. Die behaupteten Eigenschaften gibt es auch beim Puma, bei dem Menschenaffen sowieso. Pragmatisch sind aber die Unterschiede noch wichtiger. Und mittlerweile ist es so, dass wir diese Fähigkeit mittels technischer neuronaler Netze, die ihrerseits wieder auf Digitalrechnern »simuliert« werden, nachbilden können. Für spezielle Aufgabenstellungen ist das heute auch im technischen Bereich die Methode der Wahl. Wobei die interessante Feststellung die ist, dass wir auf diese Weise biologische neuronale Netze (d.h. analoge Systeme) mit Hilfe von Rechnern, also digitalen Systemen, »nachbilden«. Sinnvoll aus Anwendungssicht ist das aber nur in speziellen Fällen.

9. Eine Turing-Maschine in einem Neuro-System

Für das, was wir als die menschliche Intelligenz verstehen, ist die neuronale Eben wichtig, aber es kommt darauf an, was wir daraus machen. Und das sollte mehr sein, als raffinierte senso-motorische Bewegungsabläufe zu realisieren. Sonst wäre der »Puma« auch der Maßstab für das, was wir intuitiv unter Intelligenz verstehen. Das ist aber nicht der »Puma«, sondern das sind wir. Es muss also etwas hinzukommen. Hier sind nun obige Sätze 1 und 2 der Schlüssel zum Verständnis. Man kann auf der Ebene eines neuronalen Netzes, wenn es richtig konfiguriert ist und spezielle Bausteine besitzt, noch viel mehr hinbekommen als die Approximation gutartiger Funktionen. Der obige Satz 2 beinhaltet ja auch die Aussage, dass neuronale Netze (in der richtigen Ausgestaltung) mathematisch äquivalent sind zu einer »Turing-Maschine«.

Die Turing-Maschine ist, wie dargestellt, die Inkarnation des Digitalen. Die Aussage besagt jetzt die Umkehrung der oben beschriebenen Simulation neuronaler Netze auf Rechnern, nämlich die Möglichkeit der »Simulation« eines Rechners auf einem neuronalen System, wenn man dafür die richtigen Vorkehrungen trifft, also das neuronale Potential adäquat nutzt. Wird ein neuronales Netz in einer solchen Form (in Teilen) geeignet konfiguriert, wird es zu einem algorithmischen System, zu einem »Rechner«, der Algorithmen abarbeiten kann. Und natürlich können wir das als Menschen, dies zeichnet uns sogar in besonderer Weise aus. Hier unterscheiden wir uns erheblich von den Tieren, obwohl wir das gleiche »Ausgangsmaterial« nutzen. Wir nutzen unserer entsprechenden Fähigkeiten beim Addieren mehrerer großer Zahlen, beim Spielen eines Klavierstücks, bei der Herstellung eiern Figur wie dem Ulmer »Löwenmenschen« aus einem Elfenbeinstück aus einem Mammutstoßzahn – eine der frühesten bekannten abstrakt-ästhetischen künstlerischen Leistungen des frühen Menschen vor etwa 40.000 Jahren, zu sehen im Ulmer Museum.

These 3

Unser Gehirn ist in der Lage, eine, wenn auch von der Leistungsfähigkeit her relativ stark begrenzte, Turing-Maschine in sich auszuprägen und diese im Laufe des eigenen Lebens auf der Basis eines neuronal realisierten »Betriebssystems« dauernd zu verbessern. Im Rahmen zivilisatorischer Prozesse sind wir auch als Menschheit dauernd bemüht, diesen unseren Rechner in seiner Leistungsfähigkeit zu verbessern.

Man nennt das in These 3 beschriebene Phänomen auch das Emulieren einer TuringMaschine auf einem biologisch-neuronalen Netz, so wie man eine Turing-Maschine auch auf einem System von Röhren oder mechanischen Registern oder eben Chips oder sogar mit Bleistift und Papier realisieren kann. Wobei der Mensch in der Natur allen anderen Lebewesen in der Realisierung einer solchen Turing-Maschine in seinem neuronalen Netz haushoch überlegen ist, obwohl auch andere Tiere erste Leistungen dieses Typs erbringen. Hier liegt von der Pragmatik her der wohl entscheidende Unterschied zwischen Menschen und den anderen Lebewesen.

Zu Ende gedacht: Alles, was wir auf der Ebene der Berechenbarkeitstheorie mathematisch tun können, kann im Prinzip auch ein (biologisches) neuronales Netz. Es muss dafür »nur« geeignet konfiguriert werden oder genauer: Auf ihm oder mit ihm muss ein kleiner Rechner »emuliert« werden. Die Turing-Maschine läuft dann nicht auf Röhren oder Transistoren, sondern macht sich den Basismechanismus eines biologischen neuronalen Netzes zu Nutze (Intelligenz auf der Basis von »Fleisch«).

Es steckt, wenn das einmal verstanden ist, nichts Besonderes darin, wenn ein neuronales Netz logische Schlüsse zieht, weil es zum Leistungspotential neuronaler Netzes gehört, logische Schlüsse ziehen zu können, wenn sie entsprechend konfiguriert sind, weil nämlich logische Schlüsse über »ausreichend glatte« Funktionen dargestellt werden können. Über die biologische Evolution und die menschliche Kultur sind wir soweit gekommen, dass dieses für uns heute selbstverständlich ist. Wobei das Beste am Menschen wohl die enge Verbindung zwischen unserem extrem mächtigen »neuronalen Netz« ist, dass wir mit der Tierwelt gemeinsam haben, und dem beschriebenen Computer begrenzter Leistungsfähigkeit, der bei uns zusätzlich emuliert ist. Da kommen die anderen Tierarten nicht mit, auch die Menschenaffen nicht.

So kann der Mensch Fahrrad fahren, da hilft kein logisches Kalkül, da hilft nur üben, d. h. das Trainieren des neuronalen Netzes im Sinne des »Erlernens einer glatten Funktionen« – wie beim Tennisspiel. Über viel Üben approximiert das neuronale Netz Gehirn vielfältig interessante hochdimensionale Funktion. Es ist dies die Basis unserer unglaublichen Bewegungsfähigkeit und unseres handwerklichen Könnens.

Sind logische Schlüsse zu ziehen, wechseln wir in den Turing-Maschine-Modus unseres neuronalen Systems. Die zentrale, hier vertretene These ist insofern die folgende:

These 4

Der Evolutionsprozess hat im Gehirn des Menschen einen (kleinen) abstrakten Rechner auf einem neuronalen Substrat realisiert. Der Informatiker würde sagen: Wir haben auf unserem neuronalen Substrat eine kleine Turing-Maschine emuliert. Das ist ein wesentlicher Kern dessen, was wir als menschliche Intelligenz wahrnehmen. Für die Intelligenz des Menschen ist insofern die Ähnlichkeit zu einem Computer charakteristisch und gut verstehbar. Für viele Dimensionen unserer Intelligenz ist die Neuroseite der Realisierung nicht so wichtig. Das Wesentliche ist, was damit hervorgebracht wird – ein kleiner, abstrakter Rechner, eingebettet in ein neuronales Netz. Für uns ist an dieser Stelle in der Summe festzustellen. Das Gehirn kann abstrakte Denkleistungen erbringen. Es verfügt dazu über eine Art Turing-Maschine. Wir verstehen auch, wie man diese auf einem neuronalen Netz realisieren kann.

Unser menschliches neuronales Netz ist bzgl. der realisierten Turingmaschine (natürlich) eingeschränkt. So ist es bekannt, dass Menschen im Kurzzeitgedächtnis maximal 7 ± 2 Dinge gleichzeitig präsent haben und überblicken können. Sollen es mehr Dinge sein, hilft nur Abstraktion und / oder eine baumartige Organisation von Ober- und Unterbegriffen (Ontologie). Von der Architektur her scheinen in dem emulierten kleinen Rechner jedenfalls nicht mehr Positionen im Kurzeitgedächtnis gleichzeitig frei nutzbar zu sein. Andererseits ist auf dieser Basis doch schon Erstaunliches machbar, vor allem wenn man viel übt – und vieles andere kommt hinzu. Denn unsere Turing-Maschine ist in ein extrem leistungsfähiges biologisches neuronales Netz und einen leistungsfähigen Körper integriert, der wiederum über dieses neuronale Netz sensorisch und aktorisch und in all seinen Lebensvorgängen gesteuert wird. Was die Tierwelt auszeichnet haben wir auch – und den »kleinen Rechner« dazu und mit all den anderen Fähigkeiten durchgängig integriert.

Dass wir das alles so einordnen können, verdanken wir u. a. einem Hirnforscher aus Baden-Württemberg, der leider vor einigen Jahren verstorben ist. Auf ihn wurde eben schon hingewiesen. Das ist Valentin Braitenberg aus Tübingen, von dem es sehr gute Bücher zu diesem Thema gibt. Die Erkenntnis seiner Arbeiten besteht im Wesentlichen in der Feststellung, dass es kein prinzipielles Problem ist, auf unserem neuronalem Substrat eine Turing-Maschine zu realisieren. Die wichtigsten Dinge, die man dazu braucht, sind die folgenden: einerseits die biologische Realisierung der logischen Grundoperatoren, andererseits einen Sequentialisierer, mit dem man Klammer-Prozesse durchführt. Bei Braitenberg wird sehr schön beschrieben, wie die Natur im Rahmen der Evolution diese Operationen Schritt für Schritt realisieren konnte. Der Sequentialisierer ist im Wesentlichen derselbe, den wir auch bei der Bearbeitung von Steinen mit Werkzeugen, bei der Planung von Jagden oder in der Sprache bei der Sprachbildung mittels grammatikalischer Strukturen verwenden.

Zu beachten ist allerdings auch folgendes: Das Ergebnis, also der Rechner auf unserem neuronalen Netz ist - nicht überraschend - etwas dürftig im Verhältnis zu einem heutigen PC. Bei vielen Menschen ist bereits bei der dreifachen (manchmal auch der doppelten) Verneinung Schluss. Wir haben deshalb oft bereits für die einfache Verneinung ein eigenes Wort (z. B. Ablehnung = Nicht-Zustimmung). Das erleichtert das Denken und vermeidet Verwirrung. Ganz viele Menschen können übrigens den logischen Pfeil (Modus ponens) nicht zweimal hintereinander korrekt anwenden, manchmal nicht einmal »einmal«. Von der Integration gebrochen-rationaler Funktionen, eine Standardaufgabe der Integralrechnung, erst gar nicht zu reden – da tun sich selbst ausgebildete Mathematiker schwer.

10. Die Sonderposition des Menschen zwischen Tier und Computer

Die Summe des bisher Gesagten bedeutet das Folgende: Wenn wir verstehen wollen, warum wir so sind wie wir sind, dann stellt man sich am besten die Mischung von einem »Puma« mit einem kleinen dürftigen, aber immerhin funktionierenden Rechner vor. Wenn Se diese Kombination vor Augen haben, verstehen Sie auch, warum wir als Menschen zum Schluss die Welt beherrschen und nicht die Pumas. Weil wir den kleinen Rechner haben, die »universelle Intelligenzmaschine«, der Puma nicht. Wobei der Weg zum Menschen ein gradueller Prozess war und die Menschenaffen insofern viele Elemente des kleinen Rechners ebenso verfügbar haben wie wir, aber eben noch einmal viel eingeschränkter. Weil z. B. die volle Sprache fehlt, ein ganz wichtiges Element zur »Fütterung« der digitalen Maschine. Und weil der kulturelle Prozess fehlt, mit dessen Hilfe wir die Leistungsfähigkeit dieses digitalen Teilsystems permanent verstärkt haben. Die Schulpflicht gehört dazu, das Lesen ganzer »Bibliotheken« ebenso.

Und Sie verstehen gleichzeitig aber auch, warum die Computer, die wir heute bauen, trotz ihrer großen Überlegenheit in der immer schnelleren Abarbeitung immer komplexerer Algorithmen gegen uns lebenspraktisch bis heute nicht ankommen, obwohl sie als abstrakte Maschine viel besser sind als wir. Weil wir nämlich dieses wunderbare neuronale System haben – wie der Puma.

Wir können eben zusätzlich alles, was gute neuronale Systeme können und was Rechner nicht können. Wir sind ein mächtiges Säugetier mit all seinen Lebensfunktionen. Wir haben dazu einen wunderbaren Körper. Wir können damit unglaubliche Dinge tun. Es gibt keine Roboter, die heute auch nur im Entferntesten tun könnten, was wir Menschen als sensorisch-aktorisches System tun können, obwohl auch in diesem Bereich die Fortschritte groß sind. Ziemlich lange werden wir auf jeden Fall noch einzigartig bleiben, nämlich mit diesem kleinen Rechner in diesem wunderbaren Körper, verknüpft mit unsrem neuronalen System.

Eine ganz entscheidende Frage ist dann natürlich auch die, ob der Mensch mir seinem Gehirn besser werden kann? Dies wurde oben gerade angesprochen. Ja, natürlich kann er das. Wir arbeiten kulturell permanent an der Verbesserung des »Betriebssystems«, das auf unserer kleinen digitalen Maschine und auf unserem neuronalen Netz läuft. Wir tun das als Individuen und wir systematisieren dies auch zivilisatorisch und bilden uns und unsere Kinder aus. Heute übrigens schon länger, als der Mensch früher lebte und am besten in der Form eines »lebenslangen Lernens«.

Wir erfinden z. B. immer mächtigere »Makros«, die in einem Bild, in einem Befehl, ganze Kaskaden von Überlegungen in Gang setzen bzw. ersetzen können, für die früher ein Einzelner hätte ewig überlegen müssen, was hier geht oder auch nicht. Er wäre überhaupt nicht von der Stelle gekommen. Wir haben jetzt als gesellschaftliche Leistung, als Fortschritt von Wissensmanagement, Technik und Kultur ganze Kaskadenprozesse zur Verfügung, die wir »betriebssystemmäßig« über einen Makrobefehl induzieren. Das hilft uns, in Entscheidungsprozessen mit »Trade-offs« umzugehen. Das hilft uns, in dynamischen Gruppenprozessen Situationen vom Typ »Prisoners-Dilemma« zu verstehen und durch organisatorische Maßnahmen zu überwinden.

Wir sind mittlerweile auch schon gut darin, dass wir dieses Gehirn, das dafür eigentlich gar nicht gedacht war, sogar in einen Time-Sharing Modus bringen. Dass wir also innerhalb von Minuten auf genügender Abstraktionsebene in der Lage sind, von einem Thema zum anderen zu wechseln, um in ein paar Minuten wieder da anzusetzen. wo wir vorher aufgehört haben. Das ist kein neues Gehirn, das ist das alte Gehirn. Aber auf diesem »alten Gehirn« verbessern wir das Betriebssystem und die »Bibliotheken«, mit denen das System arbeitet, meist als Teil der Verbesserung unseres »kleinen Rechners«. Deshalb wird unser Gehirn – lebenspraktisch – immer besser, gerade auch, was die abstrakte Seite betrifft.

Der stärkste Mechanismus, um das alles tun zu können, was wir auf der Rechnerebene tun, ist die Sprache. Das wäre jetzt ein eigenes großes Thema. Viele zu diesem Thema in der Logik dieses Textes findet sich in meiner Studie, wo insbesondere auch das Gehirn als große Simulationsmaschine (»Kopfkino«), die Frage des Bewusstseins und der Freiheit und zusätzlich auch der konkrete Evolutionsprozess, der das alles hervorgebracht hat, besprochen werden. Worte sind mächtige »Makros«.

11. Die Qualia-Frage

Heißt das Gesagte, dass die Maschine so intelligent wie der Mensch werden kann oder sogar intelligenter? Kann der Rechner werden wie der Mensch, oder gibt es Unterschiede, prinzipielle Grenzen?

Und was unterscheidet dann den Menschen von einer Maschine? Ist es das Bewusstsein? DieAntwort ist Nein, wenn Bewusstsein bedeutet, dass man etwas über sich selber weiß und über das, was man tut. Die Antwort ist vielleicht ja, wenn Bewusstsein das Fühlen beinhaltet, ein wirkliches Gefühl haben, das mehr ist als ein Wort oder Software. Übrigens ist dies das zentrale Thema des interessanten Filmes »Ex-machina«, der versucht, den Turing-Test für Intelligenz in Richtung Gefühl zu erweitern. Was ist wirkliches Fühlen? Die Philosophen sprechen hier manchmal von Qualia. Es ist dies ein Thema von ganz zentraler Bedeutung, vielleicht das wichtigste, wenn man nach prinzipiellen Unterschieden zwischen (zukünftigen) technischen Systemen (Robotern / Androiden) fragt und Menschen. Eine ausführliche Diskussion mit vielen Bezügen zur Literatur findet sich in meiner Studie.

Mögliche Grenzen für selbstlernende KI-Systeme und prinzipielle Unterschiede zu uns bestehen aus Sicht des Autors also am ehesten im Bereich »echter Gefühle«. Wir tragen als Menschen in der Folge der biologischen Evolution einen mächtigen, neuronal und hormonell basierten Gefühlsmechanismus in uns, der uns antreibt und den wir in seinem Funktionieren im Letzten nicht voll verstehen. Wir verstehen diesen allenfalls von der operationellen Seite her. Darauf konzentrieren sich bisher auch die Versuche einer Annäherung von der technischen Seite. Z. B. bei sogenannten »Software-Teachern«, die in EDV-gestützten Trainingssystemen, z. B. beim Erlernen von Fremdsprachen, eingesetzt werden. Die Nutzer erwarten teilweise, dass das »Gesicht des Teachers« freundlich zustimmend lächelt, wenn der Schüler alles richtig macht und gelegentlich unzufrieden oder ungeduldig dreinschaut, wenn auch noch der 5. Versuch fehlerhaft ist. Nun mag der »Teacher« lächeln oder nicht. Eine tatsächliche Gefühlsebene (im Sinne von Qualia) besitzt er sicherlich nicht.

Vielleicht können wir prinzipiell keine Maschinen bauen, die so »fühlen« wie wir. Vielleicht wird uns das nie gelingen. Kein Mensch versteht etwa, woher ein Gefühl wie Schmerz kommt. Der Computer empfindet ja den Schmerz nicht in unserem Sinne, wenn ihm softwaregetrieben das Phänomen Schmerz eingegeben wird, er also z. B. »Aua« ruft, wenn wir ihn treten. Wir Menschen sind uns aber sicher, dass es uns wirklich weh tut, wenn man uns mit einer Nadel sticht. Und bei einem Menschenaffen wird es nicht anders sein. Genau hierin, also in der Qualiafrage, besteht bis heute der prinzipielle Unterschied zwischen Mensch (bzw. hochentwickelten biologischen Systemen) und Maschinen.

These 5:

Wir Menschen, wie wohl auch andere hochentwickelte Lebewesen, haben ein emotional-hormongetriebenes Bewertungssystem. Dieses beinhaltet, was manche Philosophen als Qualia bezeichnen. Damit verbunden sind Vorstellungen von einer gerechten, gelingenden Welt, emotionale Reaktionen in Bezug auf die Frage, was richtig oder falsch ist und die Intentionalität, sich für eine »gute« Welt einzusetzen. Die Maschinen, die wir bisher realisiert haben, haben das alles nicht, sie leben nur in einer Welt der Worte, Bilder und Modelle. Die wesentliche Rückbindung der Worte sind wiederum Worte. Das ist bei uns anders. Bei uns ist die Symbolverankerung (symbol grounding) über den Körper (inklusive Qualia) die entscheidende zusätzliche Größe.

12. Wo werden uns immer intelligentere technische Systeme hinführen?

Denken wir an die Zukunft technischer Intelligenz, an intelligente Systeme, vielleicht intelligente Roboter, stellen sich aufgrund des Gesagten viele Fragen. Einerseits gibt es große Hoffnungen. Da wird die Maschine zum Helfer, zum Retter. Woher rühren diese Hoffnungen bzw. Träume und Illusionen? Manche Menschen verzweifeln schon lange an unserer Politikunfähigkeit und hoffen auf die »gütige« kluge Maschine. In diesem Bereich ist vieles denkbar, wir denken nur an das oben beschriebene System WATSON und seine enormen Leistungen im Bereich »Cognitive Computing«. Dieses System bringt die Generierung von Hypothesen oder Vermutungen, die beim Menschen die Basis sind für alle höheren kognitiven Prozesse, wie das Interpretieren von Bildern oder das Verstehen von Sprache, bereits in manchen Themenbereichen besser hervorbringt als wir. Vielleicht wollen die Menschen, dass irgendwann derartige Systeme Führungsaufgaben übernehmen, weil sie uns so vielfach überlegen sind in ihren Möglichkeiten, z.B. im Onlinezugriff auf hunderttausende wissenschaftliche Artikel zu einzelnen Themenfeldern. In einem bestimmten Sinne liest ein WATSON-artiges System jetzt alle diese Forschungsarbeiten und verändert in Folge des Lesens seine Zugriffsstruktur und letztlich seine Entscheidungen und Empfehlungen. Wir haben als Mensch oft nicht einmal mehr die Zeit, einzelne Texte zu lesen. Ist dann die Maschine vielleicht irgendwann die Instanz, die wir fragen sollten? Weil sie mehr weiß als wir, mehr liest, mehr nachdenkt und vielleicht weniger von Emotionen getrieben ist als wir und deshalb bestimmte Fehler vermeidet? Was so gut klingt, hat aber auch eine Kehrseite. Das alles kann potentiell gefährlich werden. Es droht der gläserne Mensch, es droht der Verlust hochwertiger Arbeitsplätze, eine Unterminierung der Demokratie. Die Maschine könnte zum Schluss die Macht haben, nicht wir. Dieser Gedanke treibt auch den Physiker Stephen Hawkings um, der seine eigene Wirkungsmöglichkeit als Schwerbehinderter massiver maschineller Unterstützung verdankt, die ihm als Folge der Innovationen der letzten Jahrzehnte im IT-Bereich heute zur Verfügung stehen. In den Medien wurde berichtet, dass in seinem aktuellen Sprachsystem der Fa. Swiftkey auf Basis von Intel Technologie eine normale Sprechleistung von etwa 150 Wörtern pro Minute erreicht wird, obwohl er selber nur noch etwa 2 Worte in dieser Zeit der Maschine mitteilen kann. Die Maschine ist dabei als ein an Hawkings hoch angepasstes »intelligentes« System in der Lage, fast schon »seine Gedanken lesen« und kann mit ganz wenigen Schlüsselwörtern die Hawkings-üblichen Überlegungen und Sätze hervorbringen. Für Hawkings sind die bisherigen Fortschritte der Technologie zentral und unverzichtbar. Dennoch spricht er klar aus, dass die Entwicklung irgendwann problematisch werden kann.

Für die Wechselwirkung mit der Maschine kommt es deshalb darauf an, was der Mensch dem zukünftigen Humanoiden oder Hubot in dessen Verhaltenssystem einbaut, wozu er diese Maschinen (Wesen) befähigt. Wenn wir ihn mit Intentionen schaffen, wenn wir ihm immer mehr Fähigkeiten via Software (inklusive Lernmöglichkeiten) zur Weiterentwicklung einbauen, dann wird es potentiell gefährlich – mit und ohne Qualia. Da sollten wir uns klug zurückhalten und allenfalls in kleinen Schritten experimentieren – und immer mit Ausschaltknopf.

Mit Blick auf die Zukunft sollte die Politik, wenn Vernunft der Maßstab ist, enge Grenzen für solche Systeme und ihre Weiterentwicklung setzen. Irgendwann werden wir vielleicht einmal ein weltweites Moratorium brauchen, wie z. B. auch bei biologischen Kampfstoffen. Aber wird das so kommen? Die Machtinteressen von Menschen und Eliten, z.B. im militärischen Bereich, ökonomische Interessen und Sicherheitsinteressen können letztlich zur Folge haben, dass wir die Möglichkeiten solcher neuen Maschinen immer weiter treiben – über alle Vorsichtsgrenzen hinaus – weil spezielle Interessen sie für ihre Zwecke nutzbar machen wollen. Genau das müsste eine kluge Politik verhindern. 

Zusammenfassung

Wir erleben unglaubliche Dinge im Bereich Big Data und Künstliche Intelligenz. Sie folgen einem Schema, das wir jetzt seit Jahrzehnten beobachten: Moore´s Law, also die Vertausendfachung der Leistungsfähigkeit und Effizienz im Bereich elementarer Rechenoperationen alle 20 Jahre. Wenn wir auch noch nicht da sind, wo im Sinne einer Singularität die Maschinen so »intelligent« werden wie die Menschen, werden die Maschinen doch zunehmend unglaublich gut. Wobei sie das zum Teil auf einem ganz anderen Wege tun, als wir das tun. Das Internet der Dinge hilft, die Leistungsfähigkeit der Maschinen massiv zu steigern. BIG DATA und eine entsprechende Analytik tun dasselbe. Lassen wir diese Prozesse einfach weiterlaufen, können diese unsere Zivilisation an ganz vielen Stellen gefährden. Gelingt die »Einhegung« dieser Prozesse im Sinne einer vernünftigen politischen Global Governance, im Sinne einer weltweiten ökologisch-sozial vernünftig regulierten Marktwirtschaft, im Sinne einer green and inclusive market economy, dann könnte daraus viel Vernünftiges und für die Zukunft Gutes resultieren. Irgendwann könnte dann auch der dauernde Zwang zu Innovation aufhören. Aber das ist alles andere als sicher, dass ist weit weg. Wir stehen vor großen Herausforderungen.