„künstliches gehirn“ als nachfolger des computers

4
Elektrotechnik & Informationstechnik (2014) 131/2: 37–40. DOI 10.1007/s00502-014-0199-8 BERICHT „Künstliches Gehirn“ als Nachfolger des Computers Perspektiven des Denkens in Netzwerken W. Hilberg, IEEE, VDE-ITG Es werden grundsätzliche Fragen des Denkens im Gehirn und des möglichen technischen Nachbaus betrachtet. Die bisherigen Versu- che, das Rätsel des Denkens zu lösen, waren vergeblich gewesen, weil man im Gehirn eine Sprache nicht finden konnte. Dabei ging man davon aus, dass es eine Sprache nicht ohne Symbole bzw. nicht ohne Codes geben könne. Das war ein Irrtum. Dieses Problem konnte durch eine Erweiterung der klassischen Informationstheorie gelöst werden. Der andere wichtige Schritt war die Entdeckung der Struktur eines Netzwerkes, das durch die Sprache selbst gebildet wird und die Basis des Sprachsystems im Gehirn ist. Simulationen mit literarischen Texten zeigten, dass solch ein System inder Tat funktioniert und mit heutiger Technologie nachgebaut werden kann. Online publiziert am 3. April 2014 © Springer Verlag Wien 2014 1. Einleitung Warum können wir uns mit dem Computer nicht so unterhalten wie mit einem Menschen? Wir wissen es: Weil dem Computer die ty- pisch menschliche Intelligenz fehlt. Er wurde ja von Anfang an nur als eine Rechenmaschine konzipiert. Das haben die Pioniere Zuse und von Neumann ausdrücklich verkündet [1]. Der Computer löst je- de mathematisch formulierbare Aufgabe mit Hilfe von Algorithmen in unwahrscheinlicher Geschwindigkeit. Aber die wenigsten Men- schen sind Mathematiker oder Informatiker. Die mit den Computern erreichbaren großen Erfolge blenden uns, so dass es nicht wenige Experten gibt, die uns verkünden, dass der Computer in wenigen Jahren den Menschen in der Intelligenz überholt hat. Sie sagen, dass noch größere und schnellere Computer das in wenigen Jahren durch künstliche Intelligenz erreichen. Der Autor, der lange Jahre beruflich mit Computern gearbeitet hat, ist jedoch im Zweifel, ob das wirklich eintreten wird. Zu lange schon gibt es diese Versprechungen. Es sollte vielmehr zu denken geben, dass die menschlichen Denk- leistungen in einem Gehirn erzeugt werden, das viel langsamer ar- beitet als die heutigen Supercomputer. Und dennoch sind diese noch nicht einmal zu elementaren sprachlichen Leistungen fähig. Beispiele können zeigen, wie begrenzt die mathematischen Methoden sind. Man gebe den Experten nur einmal die Aufgabe, sie möchten von einer Geschichte, z. B. einem Märchen, mit dem Computer eine sprachlich akzeptable Nacherzählung erzeugen, und das in einem gewünschten Umfang und in einer erträglichen Zeit. Bei dieser Auf- gabe, die schon Grundschüler beherrschen, müssen die Experten trotz ihrer riesigen Computer passen. Warum nur? Nun, unser Gehirn ist einfach kein Computer. Die meisten Menschen „rechnen“ nicht, sondern sie „denken“. Rech- nen ist nur eine spezielle Variante des Denkens. 2. Die Historie der Neuronalen Netze Schon vor über einem halben Jahrhundert gab es einige Wissen- schaftler, die sich nicht mit einer Rechenmaschine begnügen woll- ten. Heute weiß man kaum noch etwas von ihnen und ihren Bemü- hungen, die damals etwa zur gleichen Zeit mit der Entwicklung der Computer stattfanden. Diese Wissenschaftler waren der Meinung, man solle am besten von der Natur lernen und einfach das Gehirn technisch nachbauen. Diese Forschungsrichtung fand zunächst auch einen kleinen Kreis von Anhängern und wurde unter dem Namen „Neuronale Netze“ bekannt. Ihre Pioniere waren McCulloch-Pitts, Rosenblatt, Steinbuch, Hopfield, Kohonen und andere. (Eine gute Darstellung findet man in R. Rojas: „Theorie der neuronalen Net- ze“ [2].) Man glaubte, dass man nur die Neuronen des Gehirns, die man recht gut untersuchen konnte, nachbauen und in bekannten Netzwerken einbauen müsse, um ein künstliches Gehirn zu erhalten. Das allein sei entscheidend für die Denkfähigkeit (ein schwerwie- gender Fehler, wie wir heute wissen). Man versuchte also im Verlauf der Jahre, vor allem die Struktur dieser kleinen Nervenzellen im Ge- hirn immer genauer nachzubilden. Das half aber nicht viel. Gewisse Erfolge gab es nur auf dem Gebiet der Verarbeitung von Bildern, Mustern und Fingerabdrücken. Sie wurden erzielt mit relativ kleinen Systemen, die nur einige Tausend technische Neuronen enthielten, die oft nicht einmal als Schaltungen nachgebaut, sondern nur simu- liert wurden [3]. Es half auch praktisch kaum etwas, die Zahl der Neuronen zu ver- vielfachen, um damit kompliziertere Aufgaben zu bewältigen. Vor allen Dingen waren die neuronalen Netze in der Anwendung auf die menschliche Sprache völlig unbrauchbar. Das alles führte dazu, dass man sich in der Wissenschaft völlig von der Idee einer neuro- nalen Denkmaschine nach menschlichem Vorbild verabschiedete. Es fehlte einfach eine Idee, wie man in der Erforschung des Gehirns weiterkommen könnte. Auch die Neurobiologie und die Gehirnforschung blieben bei den herkömmlichen Ansichten. Ein Ge- hirn nachzubauen, schien einfach unvorstellbar schwierig zu sein. Es geht ja um ein völlig undurchsichtiges feuchtes Gebilde in einem re- lativ kleinen Volumen, das aus einer riesigen Anzahl von Gehirnzel- len und einem unentwirrbaren Knäuel von Netzwerken besteht, das sich seit jeher einer experimentellen Aufklärung seiner Netzwerk- struktur widersetzt. (In Zahlen: Das Gehirn enthält bekanntlich etwa 100 Milliarden Neuronen, wobei jedes Neuron bis zu 10.000 Ver- bindungen zu anderen Neuronen hat.) Das Problem war offenbar unlösbar. März 2014 131. Jahrgang © Springer Verlag Wien heft 2.2014 Hilberg, Wolfgang, FB Informationstechnik, TU Darmstadt, Im Geisner 11, 64401 Groß-Bieberau, Deutschland (E-Mail: [email protected]) 37

Upload: wolfgang

Post on 20-Jan-2017

255 views

Category:

Documents


10 download

TRANSCRIPT

Page 1: „Künstliches Gehirn“ als Nachfolger des Computers

Elektrotechnik & Informationstechnik (2014) 131/2: 37–40. DOI 10.1007/s00502-014-0199-8 BERICHT

„Künstliches Gehirn“ als Nachfolgerdes Computers

Perspektiven des Denkens in NetzwerkenW. Hilberg, IEEE, VDE-ITG

Es werden grundsätzliche Fragen des Denkens im Gehirn und des möglichen technischen Nachbaus betrachtet. Die bisherigen Versu-che, das Rätsel des Denkens zu lösen, waren vergeblich gewesen, weil man im Gehirn eine Sprache nicht finden konnte. Dabei gingman davon aus, dass es eine Sprache nicht ohne Symbole bzw. nicht ohne Codes geben könne. Das war ein Irrtum. Dieses Problemkonnte durch eine Erweiterung der klassischen Informationstheorie gelöst werden. Der andere wichtige Schritt war die Entdeckungder Struktur eines Netzwerkes, das durch die Sprache selbst gebildet wird und die Basis des Sprachsystems im Gehirn ist. Simulationenmit literarischen Texten zeigten, dass solch ein System in der Tat funktioniert und mit heutiger Technologie nachgebaut werden kann.

Online publiziert am 3. April 2014© Springer Verlag Wien 2014

1. EinleitungWarum können wir uns mit dem Computer nicht so unterhalten wiemit einem Menschen? Wir wissen es: Weil dem Computer die ty-pisch menschliche Intelligenz fehlt. Er wurde ja von Anfang an nurals eine Rechenmaschine konzipiert. Das haben die Pioniere Zuseund von Neumann ausdrücklich verkündet [1]. Der Computer löst je-de mathematisch formulierbare Aufgabe mit Hilfe von Algorithmenin unwahrscheinlicher Geschwindigkeit. Aber die wenigsten Men-schen sind Mathematiker oder Informatiker. Die mit den Computernerreichbaren großen Erfolge blenden uns, so dass es nicht wenigeExperten gibt, die uns verkünden, dass der Computer in wenigenJahren den Menschen in der Intelligenz überholt hat. Sie sagen, dassnoch größere und schnellere Computer das in wenigen Jahren durchkünstliche Intelligenz erreichen. Der Autor, der lange Jahre beruflichmit Computern gearbeitet hat, ist jedoch im Zweifel, ob das wirklicheintreten wird. Zu lange schon gibt es diese Versprechungen.

Es sollte vielmehr zu denken geben, dass die menschlichen Denk-leistungen in einem Gehirn erzeugt werden, das viel langsamer ar-beitet als die heutigen Supercomputer. Und dennoch sind diese nochnicht einmal zu elementaren sprachlichen Leistungen fähig. Beispielekönnen zeigen, wie begrenzt die mathematischen Methoden sind.Man gebe den Experten nur einmal die Aufgabe, sie möchten voneiner Geschichte, z. B. einem Märchen, mit dem Computer einesprachlich akzeptable Nacherzählung erzeugen, und das in einemgewünschten Umfang und in einer erträglichen Zeit. Bei dieser Auf-gabe, die schon Grundschüler beherrschen, müssen die Expertentrotz ihrer riesigen Computer passen.

Warum nur? Nun, unser Gehirn ist einfach kein Computer. Diemeisten Menschen „rechnen“ nicht, sondern sie „denken“. Rech-nen ist nur eine spezielle Variante des Denkens.

2. Die Historie der Neuronalen NetzeSchon vor über einem halben Jahrhundert gab es einige Wissen-schaftler, die sich nicht mit einer Rechenmaschine begnügen woll-ten. Heute weiß man kaum noch etwas von ihnen und ihren Bemü-hungen, die damals etwa zur gleichen Zeit mit der Entwicklung derComputer stattfanden. Diese Wissenschaftler waren der Meinung,man solle am besten von der Natur lernen und einfach das Gehirn

technisch nachbauen. Diese Forschungsrichtung fand zunächst aucheinen kleinen Kreis von Anhängern und wurde unter dem Namen„Neuronale Netze“ bekannt. Ihre Pioniere waren McCulloch-Pitts,Rosenblatt, Steinbuch, Hopfield, Kohonen und andere. (Eine guteDarstellung findet man in R. Rojas: „Theorie der neuronalen Net-ze“ [2].) Man glaubte, dass man nur die Neuronen des Gehirns, dieman recht gut untersuchen konnte, nachbauen und in bekanntenNetzwerken einbauen müsse, um ein künstliches Gehirn zu erhalten.Das allein sei entscheidend für die Denkfähigkeit (ein schwerwie-gender Fehler, wie wir heute wissen). Man versuchte also im Verlaufder Jahre, vor allem die Struktur dieser kleinen Nervenzellen im Ge-hirn immer genauer nachzubilden. Das half aber nicht viel. GewisseErfolge gab es nur auf dem Gebiet der Verarbeitung von Bildern,Mustern und Fingerabdrücken. Sie wurden erzielt mit relativ kleinenSystemen, die nur einige Tausend technische Neuronen enthielten,die oft nicht einmal als Schaltungen nachgebaut, sondern nur simu-liert wurden [3].

Es half auch praktisch kaum etwas, die Zahl der Neuronen zu ver-vielfachen, um damit kompliziertere Aufgaben zu bewältigen. Vorallen Dingen waren die neuronalen Netze in der Anwendung aufdie menschliche Sprache völlig unbrauchbar. Das alles führte dazu,dass man sich in der Wissenschaft völlig von der Idee einer neuro-nalen Denkmaschine nach menschlichem Vorbild verabschiedete.

Es fehlte einfach eine Idee, wie man in der Erforschung desGehirns weiterkommen könnte. Auch die Neurobiologie und dieGehirnforschung blieben bei den herkömmlichen Ansichten. Ein Ge-hirn nachzubauen, schien einfach unvorstellbar schwierig zu sein. Esgeht ja um ein völlig undurchsichtiges feuchtes Gebilde in einem re-lativ kleinen Volumen, das aus einer riesigen Anzahl von Gehirnzel-len und einem unentwirrbaren Knäuel von Netzwerken besteht, dassich seit jeher einer experimentellen Aufklärung seiner Netzwerk-struktur widersetzt. (In Zahlen: Das Gehirn enthält bekanntlich etwa100 Milliarden Neuronen, wobei jedes Neuron bis zu 10.000 Ver-bindungen zu anderen Neuronen hat.) Das Problem war offenbarunlösbar.

März 2014 131. Jahrgang © Springer Verlag Wien heft 2.2014

Hilberg, Wolfgang, FB Informationstechnik, TU Darmstadt, Im Geisner 11, 64401Groß-Bieberau, Deutschland (E-Mail: [email protected])

37

Page 2: „Künstliches Gehirn“ als Nachfolger des Computers

BERICHT W. Hilberg „Künstliches Gehirn“ als Nachfolger des Computers

3. Der neue AnsatzEine neue Entwicklung ergab sich erst nach Jahrzehnten, als mandas Problem der Sprachverarbeitung im Gehirn von einer ganz an-deren Seite her anpackte. Statt immer noch genauer die Struktur derNeuronen zu ergründen, wurden sie zu ganz simplen Schaltungenvereinfacht. Dadurch konnte man sich auf die Struktur des Netz-werkes konzentrieren, in dem die Neuronen eingebaut waren. Wiekonnte man aber der Struktur näherkommen? Man kann sie ja auchheute noch nicht in dem Gewirr der vielen verschlungenen Nerven-verbindungen direkt beobachten. Hier half schließlich eine indirek-te Messung. Man kann sich nämlich überlegen, dass es Netzwerkeim Eingangsbereich des Gehirns geben muss, deren Aufgabe es ist,Anpassungsfunktionen im Übergang zum Bereich des eigentlichenDenkens zu übernehmen. Man findet durch Sprachmessungen, dasses solche Netzwerke tatsächlich gibt, dass sie bei allen Menschen ei-ner Sprachfamilie gleich sind und dauerhaft im Gehirn gespeichertwerden.

4. Die Entdeckung eines biologischen SprachnetzwerkesSolche Überlegungen waren der Anfang einer völlig neuen For-schungsrichtung, die zu einem neuen Paradigma in der Gehirnfor-schung führte. Zunächst wurde die Untersuchung ausschließlich aufdie Sprache gerichtet. Das war neu, denn Sprache hielt man bisherfür besonders kompliziert. Sodann suchte man nach den vermutetenallgemeinen Gesetzmäßigkeiten. Eine davon war besonders einfachzu entdecken. Sie konnte nämlich leicht durch linguistische Messun-gen ermittelt werden [4, 5]. Sie betrifft die Frage, welche Worte inTexten direkt aufeinander folgen können. Dazu muss man sehr vieleWorte betrachten und ihre möglichen Nachfolger. Praktisch findetman sie in großen Textsammlungen, die Millionen laufende Wor-te enthalten. Manche Worte haben sehr viele zulässige Nachfolger(wie z. B. die Artikel) und andere Worte haben nur verhältnismäßigwenige mögliche Nachfolger. Eine genauere Untersuchung führteaber zu einem verblüffenden Ergebnis. Trägt man nämlich alle Wor-te und ihre Nachfolger in einer so genannten Verbindungsmatrix ein(jede Verbindung wird hier zu einem Punkt), erkennt man deutlichGesetzmäßigkeiten. Die Punkte bedecken mit ziemlich konstanterDichte die ganze Matrixfläche. Eine mathematische Analyse zeigt,dass dies die Darstellung einer optimalen Struktur für die Kommu-nikation ist (die Entropie ist maximal). Es dürfte nicht verwundern,dass die Natur genau das optimale Netzwerk realisiert hat.

5. Das Netzwerk in jedem KopfDie Worte eines Satzes folgen in einem Pfad des erwähntenSprachnetzwerkes direkt aufeinander. Nicht nur jedes Wort, son-dern auch jeder beliebige, sprachlich akzeptable Satz ist auf dieseArt in dem Netzwerk enthalten. Interessant ist die Frage, wie sichsolch ein Netzwerk bilden kann. Daran ist ja kein Mensch bewusstbeteiligt. Vielmehr werden alle Menschen, die eine Sprache lediglichin der Kommunikation mit anderen lernen – also nicht mit Hilfe vonGrammatikbüchern – dabei automatisch das entsprechende Netz-werk in ihrem Gehirn aufbauen. Dort wird es dann dauerhaft ge-speichert, so dass die Menschen nach dem Ende der Lernphase Zeitihres Lebens darüber verfügen können. Der Schluss ist zwingend.Da alle Menschen einer Sprachfamilie genau wissen, welche Wor-te aufeinander folgen können, müssen sie alle dasselbe neuronaleNetzwerk in ihrem Gehirn haben. Seine Struktur ist völlig verschie-den von den mathematischen Strukturen, die in den historischenNeuronalen Netzen verwendet wurden. Ersichtlich eignen sich dieermittelten neuronalen Netzwerkstrukturen sehr gut als Basis für dieArchitektur der von einem Ingenieur zu entwerfenden technischenneuronalen Denksysteme [6].

6. Erkenntnisstand der WissenschaftEs sei ergänzt, dass man auch in der Neurobiologie die wichtige Rolleder neuronalen Netzwerke erkannt hat. So überschreibt z. B. AngelaA. Friederici [7] einen Aufsatz mit dem Titel „Die Funktion liegt imNetzwerk“. Kritisch ist anzumerken, dass die Struktur des Netzwer-kes unbekannt bleibt. Auch ist nicht zu erkennen, wie das Netzwerkalleine eine Sprachverarbeitung realisieren könnte. Die wichtige Rol-le der Neuronen, welche die Sprachinformationen repräsentieren,wird jedenfalls nicht erkannt, offenbar, weil hier Messungen bishernie etwas erbracht hatten.

Warum dies so ist, muss erläutert werden. Es ist nämlich eingrundsätzliches Problem. Da die Information als solche für Denkpro-zesse sehr wichtig ist, müssen wir zunächst die Frage klären, ob diegrundsätzliche Definition von C.E. Shannon [8, 9] auch für unsicht-bare Informationen gilt oder ob sie revidiert werden muss. Zweifelsind von führenden Neurobiologen (z. B. von Churchland, Näheresim nächsten Abschnitt) schon geäußert worden. Wir werden sehen,dass nur eine fast selbstverständliche Erweiterung der Theorie nötigist. Betrachten wir deshalb zuerst die bekannte klassische Theorie.

Ihr Schöpfer, C.E. Shannon, hat bekanntlich eine Informationgrundsätzlich durch Symbole definiert. Bekannte Symbole sind zumBeispiel Worte oder Codes. Sie weisen jeweils auf ein bestimmtesObjekt hin. (Die Bedeutung hat Shannon nicht interessiert, und da-bei soll es auch hier bleiben.) Man kann sich Symbole leicht an Bei-spielen veranschaulichen. So sind die Informationssymbole für die-selben Objekte in verschiedenen Sprachen in der Regel verschieden,z. B. „Baum“ und „tree“. Worte lassen sich durch Buchstaben, Lau-te oder andere Codes darstellen (z. B. durch binäre Codes wie ineinem Computer).

7. Notwendige Erweiterung der InformationstheorieWenn wir daran festhalten, dass Worte Informationen sind, die nachShannon notwendigerweise durch Laute, Buchstaben oder Codesdargestellt werden müssen, scheint das nicht mit den neurobiolo-gischen Beobachtungen übereinzustimmen. Im Gehirn, das vollerInformationen sein müsste, ließ sich bisher trotz angestrengtesterSuche nie ein „Neuronencode“ oder etwas Ähnliches entdecken.Dieser befremdliche Umstand wurde von der führenden amerikani-schen Neurobiologin Patricia Churchland [10] immer wieder als einRätsel bezeichnet. „Also wissen wir immer noch nicht, wie eigent-lich das Neuron die Information kodiert. Zudem wissen wir nochnicht mit befriedigender Exaktheit, was wir mit Information meinen.Es fehlt an einem ausgereiften Begriff von Information, der für dieNeurowissenschaft anwendbar ist“. (Man verglich ersichtlich immerwieder mit dem Computer, denn dieser kann ohne Codes gar nichtarbeiten.)

Das führt zu der spannenden Frage, ob eine Information wirklichimmer nur durch einen Code dargestellt werden kann. Es gab so-gar in der Neurobiologie die Ansicht, dass man für den Denkbereichvielleicht eine völlig neue Theorie entwickeln müsste. Das ist nunglücklicherweise nicht der Fall. Denn es kann gezeigt werden, dassnur eine bescheidene Erweiterung des Informationsbegriffes nötigist. Sie besagt, dass in einem neuronalen Netzwerk tatsächlich eineInformation ohne Codes existieren kann, wenn sie nur repräsenta-tiv an Neuronen gebunden wird. Bedingung ist, dass es einen Ur-sprung für solche Informationen gibt, eine Stelle, an der ein Wort,d. h. eine Information, in eine körperliche Repräsentation ohne Co-de umgewandelt wird (es sei daran erinnert, dass Repräsentant dieBedeutung von Stellvertreter hat).

8. Das Interface im GehirnEine Stelle, an der zwei unterschiedliche Systeme miteinander ver-bunden werden, bezeichnet man in der Technik als ein Interface

38 heft 2.2014 © Springer Verlag Wien e&i elektrotechnik und informationstechnik

Page 3: „Künstliches Gehirn“ als Nachfolger des Computers

W. Hilberg „Künstliches Gehirn“ als Nachfolger des Computers BERICHT

(auf Deutsch Schnittstelle). Das neuronale Interface muss sich kör-perlich in einer Randschicht des Gehirns befinden, weil es zwischender äußeren Symbolwelt mit den Worten und der inneren Gehirn-welt ohne Codes vermitteln muss. Das beginnt damit, dass ein überdie Hörorgane aufgenommenes Wort assoziativ sein Neuron findetund es aktiviert (in der Technik sind z. B. assoziative Speicher be-kannte Schaltungen). Das Neuron repräsentiert dann dieses Wortohne Hilfe eines Codes. Anschließend kann diese körperliche Reprä-sentation, d. h. die Aktivität, einfach durch eine Nervenverbindungan ein folgendes Neuron weitergegeben werden. Und von dort wie-derum an folgende Neuronen. Die Information verändert sich dabeinicht. Das geschieht in gleicher Weise bei allen eintreffenden Wor-ten. Nur so ist die Fülle an Informationen im Gehirn zu erklären,die durch keine physikalischen Messungen zu entdecken sind. Re-präsentationen können sich schließlich auch mit anderen Repräsen-tationen verknüpfen und auf diese Art komplexe Repräsentationenbilden, die zu sprachlichen Denkakten fähig sind.

9. Grundzüge eines neuen NetzwerksystemsWir haben nun alle Bedingungen für die Entwicklung einer echtenDenkmaschine geklärt. Statt der mathematisch orientierten Netz-werkstrukturen in den historischen Neuronalen Netzen haben wirdie sprachlich gebildeten Strukturen des Gehirns entdeckt, und wirhaben die Erklärung gefunden, wie Neuronen auch ohne Codes In-formationen tragen können. Es ist nun eine passende Aufgabe füreinen Ingenieur der Informationstechnik, auf der Grundlage solcherErkenntnisse ein System zu entwerfen, das nach menschlichem Vor-bild Sprache verarbeiten kann und zum Denken fähig ist. Bei dieserAufgabe kann man wenig Hilfe von der Neurobiologie erwarten,denn die biologische Netzwerkorganisation im Innern des Gehirnsbleibt nach wie vor verborgen. Der Ingenieur hat jedoch nach demEntwurf eines Modells den großen Vorteil, dass er die Funktion desSystems überprüfen kann. Denn, wenn er dem entworfenen Systemeinen Satz oder einen Text zuführt, sie abstrahiert und verdichtetund von diesem Ergebnis wieder eine sinnvolle Antwort bekommt,kann er erkennen, ob das System wie bei einem Menschen funktio-niert.

10. Abstraktionen im hierarchischen NetzwerksystemDer berühmte Linguist B.L. Whorf [11] hatte schon vor Jahrzehn-ten die Meinung vertreten: „Denken – eine weitgehend sprachli-che Funktion. Es folgt einem Netzwerk von Geleisen, die in der je-weiligen Sprache festgelegt sind“, oder an anderer Stelle: „In derSprachwissenschaft zwingen die Tatsachen ihres Forschungsgebieteszur Anerkennung einer Reihenordnung von (Abstraktions-)Ebenen,deren jede durch ein feststellbares Gefüge von Strukturen definiertist“, ferner: „Wie wir sehen werden, sind die Schemata der Satz-strukturen, durch die unsere Wörter regiert werden, wichtiger alsdie Worte.“

Dieses Bild erschien uns sehr treffend. Es gibt die Richtung an, inder man technisch vorgehen kann. So kann man eine Hierarchie vonNetzwerken einrichten, in denen man einen Satz im Basisnetzwerkdurch Abstraktionen zu einer sehr kompakten Repräsentation an derSpitze der Hierarchie machen kann. Das Ergebnis hat Eigenschaften,wie man sich einen Gedanken vorstellt. Der Sprachforscher LudwigWittgenstein [12] hat ihn nämlich wie folgt definiert: „Ein Gedankeist das, was wesentlich in einem Satz enthalten ist“. Man kann dasals eine Aufforderung an die Technik verstehen, durch schrittweiseelementare Abstraktionen zu einem einzigen Neuron in einer höhe-ren Abstraktionsebene zu gelangen, das den Inhalt des Satzes imWesentlichen repräsentiert. Das Ergebnis wurde daher ebenfalls einGedanke genannt.

Bei den erwähnten Abstraktionen handelt es sich um ganz ele-mentare Operationen. Im Gegensatz zu komplizierten „Abstrak-tionen“ in der Literatur oder der Philosophie werden dabei voneinem Satz in aufeinander folgenden Ebenen einfach die jeweils un-wichtigeren Worte weggenommen und im umgebenden Netzwerkuntergebracht (abstrahere heißt im Lateinischen im Wortsinn nurwegnehmen). Auch im täglichen Leben wird man manchmal etwas„abstrahieren“. Wenn der Wissenschaftler z. B. seinen Aufsatz miteinem so genannten abstract beginnt, so ist das eine sehr abstra-hierte kurze Fassung des Inhalts.

Von der Repräsentation des Satzes durch ein einzelnes Neuronkann man durch Umkehrung der Abstraktion und unterstützt durchein Netzwerk in jeder Ebene, das durch gespeicherte Satzzusam-menhänge Vorhersagen, also Prädiktionen, ermöglicht, wieder zueinem entsprechenden Satz aus Worten kommen. Dieser kann eineganz andere Form als der ursprüngliche Satz haben [13]. Das ent-spricht auch der Fähigkeit des Menschen, einen Gedanken durchganz unterschiedliche Sätze zum Ausdruck zu bringen.

11. Die Überprüfung der SystemfunktionenDie Einzelheiten der gewählten Struktur und der Organisation einesersten Entwurfs sowie von möglichen Abstraktions- und Prädikti-onsmethoden findet man im Buch „Wie denkt das Gehirn?“ [6].Vorgestellt wurde das Projekt auch bei einer VDE-ITG-Tagung fürIngenieure aus dem Bereich Sprachsignalverarbeitung [14]. Für in-teressierte Laien gab es auch früh einen Aufsatz in [15]. Dass dasSystem wie gewünscht funktioniert, hat Thomas Ries in seiner Dok-torarbeit durch eine Simulation überprüft [13]. Dabei verwendeteer den Text eines bekannten Schriftstellers, den er in eine kompak-te Repräsentation in einer höheren Abstraktionsebene verwandelteund von dort wieder in einen lesbaren Text (es war der Abschlusseiner Reihe von sieben Doktorarbeiten zum Thema Sprachmaschine[13, 16–21]).

12. Übereinstimmung in den sprachlichen undnichtsprachlichen Bereichen

Rückblickend stellt sich die Frage, was denn neurobiologisch das Be-sondere an der Methode der Natur ist, Sprache in das Gehirn zubringen und dort zu verarbeiten. Betrachten wir dazu auch ein-mal die Gegebenheiten im nichtsprachlichen Bereich unseres Kör-pers. Hier gibt es z. B. die vielen Rezeptoren für Schmerz oder Käl-te auf der Haut. (Es sind etwa genau so viele wie die Worte unse-res Wortschatzes.) Werden sie gereizt, senden sie Signale auf eige-nen Nervenleitungen im Rückenmark zu den sie repräsentierendenNeuronen im Gehirn. Wir wissen, dass sie uns dort erst im Einzel-nen oder in ihrer Gesamtheit bewusst werden. Abgesehen von denunterschiedlich langen Nervenleitungen im sprachlichen und nicht-sprachlichen Bereich sind die neuronalen Vorgänge aber durchausvergleichbar. Zum einen ab der Stelle, wo im Interface ein Neurondurch ein Wort aktiviert wurde, und zum anderen ab der Stelle,wo ein Rezeptor aktiviert wurde. Dort werden die unterschiedlichenInformationen, d. h. die Worte oder die spezifischen Hautreize, ingleichartige Körpersignale umgewandelt, die, weil ihr Entstehungs-ort und die Verbindung dorthin unverändert bleiben, keine beson-dere Kennzeichnung mehr benötigen. Schließlich kommen sie imInnern des Gehirns an und werden dort als Repräsentation der ur-sprünglichen Information (Wort oder Schmerz) verarbeitet. Ledig-lich die Organisation der Verarbeitung wird sich in beiden Bereichenstark voneinander unterscheiden. Es bleibt also als grundsätzlicheBesonderheit der Sprachfähigkeit nur das Interface im menschlichenGehirn, das Codes (Worte) in codelose Repräsentationen umwan-deln kann und umgekehrt. Das gibt es nur beim Menschen. Aberwir wissen, dass es jetzt auch technisch machbar ist.

März 2014 131. Jahrgang © Springer Verlag Wien heft 2.2014 39

Page 4: „Künstliches Gehirn“ als Nachfolger des Computers

BERICHT W. Hilberg „Künstliches Gehirn“ als Nachfolger des Computers

13. SchlussbemerkungenDa das vorgeschlagene Netzwerksystem so aus dem Rahmen der ge-wohnten Technik fällt, ist eine zusammenfassende Schlussbetrach-tung sicher angebracht.

Beginnen kann man mit einer allgemeinen Feststellung: Die al-te philosophische Weisheit „Denken ist nur durch Sprache mög-lich“ hat jetzt eine naturwissenschaftliche Bestätigung gefunden.Das Überraschende dabei ist, dass man nicht den Umweg über denComputer nehmen muss, sondern dass es möglich ist, das natürlicheneuronale Netzwerk im Gehirn einfach nachzubauen. Man muss da-bei nur beachten, dass am Eingang des ganzen Systems ein etwasungewöhnliches Interface vorhanden sein muss, das Informations-symbole wie die Worte in körperliche Repräsentationen ohne Codesumwandelt. Dann erst ist Denken wie im natürlichen Gehirn mög-lich. Auch das künstliche Gehirn besteht dabei aus einem riesigenNetzwerk, in dem eine solche Zahl von Knotenschaltungen vorhan-den ist, die dem notwendigen Vokabular für einen beliebigen Textentspricht. Das ganze Netzwerksystem lässt sich in hierarchisch an-geordnete unterschiedliche Funktionsbereiche untergliedern, in de-nen die eigentlichen Denkprozesse ablaufen. Die Neuronen in ihrerNetzwerkumgebung sind hierbei die eigentlichen Funktionsträger.Ihre Repräsentationen spielen dabei dieselbe Rolle wie die norma-len Worte im Außenraum. Die Sätze werden durch elementare Ab-straktionen zu außerordentlich stark verdichteten Repräsentationenumgewandelt, welche die Eigenschaft von Gedanken haben, dennsie können inhaltlich gleiche, aber grammatisch verschiedene Sät-ze generieren. Das Wichtigste ist aber: Gedanken lassen sich durcheinfache Kontakte zu Gedankenfolgen miteinander verbinden. Dasnennt man dann Denken.

Zusammenfassend kann man von einem neuen Paradigma in dersprachlichen Informationsverarbeitung sprechen. Es ist ohne Bei-spiel. So ist z. B. auch die mühsame Ermittlung von unzähligenGrammatikregeln völlig überflüssig, weil bei der Strukturierung derNetzwerke in einem Lernprozess mit viel Text die Grammatik auto-matisch gelernt wird (wie beim Lernen einer Sprache durch Kinder).

Anwendungen der neuen Technik gibt es zuhauf. Zum Beispielwäre eine auf Gedanken beruhende gute und schnelle Übersetzungvon Texten in andere Sprachen kein Problem. Ebenso die schritt-haltende Kommunikation zwischen Menschen aus verschiedenenSprachfamilien. Auch könnte man aus vielen Schriften eines Men-schen der Vergangenheit seinen Geist zum Leben erwecken und sichmit ihm unterhalten. Für kranke, alte oder einsame Menschen wäreein ständiger Gesprächspartner eine große mentale Hilfe.

Da die wesentlichen Inhalte von Sätzen, die Gedanken, sich ingleicher Weise in allen Sprachen finden, bilden sie eine Gedanken-sprache, deren Einführung schon vor über 300 Jahren von dem Aus-nahmegenie G.W. Leibniz vorgeschlagen wurde, die aber bisher nieverwirklicht werden konnte. Jetzt rückt sie in den Bereich der Reali-sierung.

Und ein Wort zu dem, was vielfach verkündet wird: Zu glauben,dass das Gehirn das komplizierteste System der Welt sei, das mannie verstehen wird, ist nach den Erfahrungen bei der Entwicklungdes künstlichen Gehirns einfach ein Irrtum. Man kann doch nichtglauben, dass die technische Entwicklung beim Computer stehen-bleiben wird. In Zukunft wird es sicher noch intelligentere Maschinenals den Computer geben. Es könnten Denkmaschinen der beschrie-benen Art sein, die einen Computer nur noch als einen Assistentenmit sich führen.

Literatur

1. Zuse, K. (1984): Der Computer, mein Lebenswerk. Berlin: Springer.2. Rojas, R. (1996): Theorie der neuronalen Netze. Berlin: Springer.

3. Vey, St. (1999): Objekterkennung in Grauwertbildern, Diss. TUD.4. Hilberg, W. (2002): The unexpected fundamental influence of mathematics upon lan-

guage. Glottometrics, 5, 29–50.5. Hilberg, W. (2004): Some results of quantitative linguistics derived from a structural

language model. Glottometrics, 7, 1–24.6. Hilberg, W. (2012): Wie denkt das Gehirn? (How Does the Brain Think?). Gross-

Bieberau: Verlag für Sprache und Technik.7. Friederici, A. D. (2011): Die Funktion liegt im Netzwerk. Gehirn & Geist, 7–8, 26–29.8. Shannon, C. E. (1948): A mathematical theory of communication. Bell Syst. Tech. J.,

July, 379–423, 623–656.9. Hamming, R. (1986): Coding and information theory. New York: Prentice Hall. (Infor-

mation und Codierung, 1987).10. Churchland, P. S. (1986): Neurophilosophy (1986), and (2001) in an Interview with

science journalist Markus Christensen (Institut für Neuroinformatik, Zürich) on the In-ternet under the catchword.

11. Whorf, B. L. (1956): Language, thought and reality. Cambridge: MIT Press. Neurowis-senschaft (Titel: Psychologie auf Neurowissenschaft zurückführen).

12. Wittgenstein, L. (1994): Philosophische Bemerkungen. Frankfurt: Wiener Ausgabe,Verlag.

13. Ries, Th. (2001): Über Möglichkeiten einer maschinellen Nacherzählung mit Hilfe eineshierarchischen Systems aus Sprachnetzwerken. Diss. TUD.

14. Hilberg, W. (2012): Die rätselhafte Fähigkeit des Gehirns, Sprache ohne Hilfe von neu-ronalen Codes zu verarbeiten. In ITG-Tagung Elektronische Sprachsignalverarbeitung(S. 11–25).

15. Hilberg, W. (2010): Eine echte Denkmaschine – Repräsentation und Manipulationvon Worten und Gedanken in einem neuronalen Netzwerksystem. Nat.wiss. Rundsch.,743, 240–245.

16. Burschel, H.-D. (1998): Die messtechnische Ermittlung von Assoziationen zwischenWorten in kohärentem Text und ihre Nutzung bei Prädiktionen verschiedener Reich-weite. Diss. TUD, Darmstadt.

17. Meyer, J. (1989): Die Verwendung hierarchisch strukturierter Sprachnetzwerke zur red-undanzarmen Codierung von Texten. Diss. THD, Darmstadt.

18. Lamberti, H. (2005): Universelle Methoden einer strukturellen Textsegmentierung na-türlicher Sprachen und Metasprachen. Diss. TUD, Darmstadt.

19. Nachtwey, V. (1995): Textkompression auf der Basis von Wortnetzwerken und Gram-matikmodellen. Diss. THD, Darmstadt.

20. Steinmann, F.-M. (1996): Netzwerkmodellierung und Segmentierung von Texten sowieAnwendungen zur Informationsverdichtung. Diss. THD, Darmstadt.

21. Bassenge, G. (2001): Automatische Klassifizierung von Wortformen in Texten der deut-schen Gegenwartssprache. Diss. TUD, Darmstadt.

40 heft 2.2014 © Springer Verlag Wien e&i elektrotechnik und informationstechnik