Brain Äquivalent versus künstliche Intelligenz (KI, engl. artificial intelligence, AI)

„Wenn wir Glück haben, werden uns die Roboter als Haustiere halten.“ Das prophezeite einst Marvin Minsky, ein Pionier in Sachen künstlicher Intelligenz (KI). Von diesem Schreckensszenario sind wir jedoch meilenweit entfernt. Solche „harte“ künstliche Intelligenz, die komplette Denkstrukturen des Menschen nachbildet und handelt, ohne explizite Anweisungen zu erhalten, steckt in den Kinderschuhen. Viel weiter sind Forscher und Entwickler mit der „weichen“ künstlichen Intelligenz, die nicht allumfassend ist, sondern sich jeweils auf eine konkrete Problemlösung beschränkt, zum Beispiel das Übersetzen eines Textes.    

    

Drei Gründe warum Maschinen keine kognitive Intelligenz entwickeln können

Aus folgenden drei Gründen bin ich persönlich der Meinung, dass Maschinen keine „kognitive“ Intelligenz, welche vergleichbar ist mit der menschlichen Intelligenz, erreichen können.    

1. Antonio Damasio, der Buchautor von „Der Spinoza – Effekt“, wie Gefühle unser Leben bestimmen, bringt es für mich in einem Satz auf den Punkt, warum künstliche Intelligenz nicht machbar ist: Das Denken ist ohne das Fühlen unvorstellbar – und deren Zusammenspiel nicht ohne die Signale des Körpers.    

Eine gute zusammenfassung des Buches ist zu finden im Blog: http://neurowissenschaften.blogspot.com/2007/12/wie-gefhle-unser-leben-bestimmen.html    

2. Marovecs fragt sich, „When will computer hardware match the human brain?“ In dem Artikel zeigte Marovecs vor mehr als zehn Jahren auf, wie sich Computer im Vergleich zum biologischen Äquivalent verhalten. Es zeigt sich daraus klar, dass selbst spezialisierte Maschinen nur annährend Fähigkeiten wie menschliche Intelligenz erlangen können.    

Brain Äquivalent Moravecs Law
Brain Äquivalent Moravecs Law

  

gefunden bei:http://www.transhumanist.com/volume1/moravec.htm   

3. Wolf Singer ist ein Hirnforscher und Buchautor. Ich bin nicht mit allen seinen Schlussfolgerungen einverstanden. Doch das System menschliches Gehirn lässt einen Techniker wie mich schon erzittern. Ein paar Absätze aus Singers Büchern:   

  • Wie kommt es, dass das Gehirn über sich selbst Protokoll führt, so dass es sich seiner selbst bewusst wird.
  • Unser Wahrnehmungssystem ist in hohem Masse interpretativ. z.B: wir sehen eine rote Rose mittags und abends im gleichen Rot, obwohl die Farbspektren völlig unterschiedlich sind. Das Gehirn opfert die Objektivität aus gutem Grund: Die verschiedenen Farben würden das Erkennen der Rose verunmöglichen.
  • Wahrnehmen ist das Verifizieren von vorausgeträumten Hypothesen.
  • Selbstorganisierende Systeme brauchen kein explizites Wissen darüber zu haben, wie sie am Ende ausschauen soll. Sie werden einfach.

  

Soetwas was Wolf Singer in seinen Büchern und Studien aufzeigt wird nicht maschinell nachzubauen sein.   

Meine Zusammenfassung zu Singers Gedanken ist: Unser Gehirn ist ein System, dass uns die Umwelt so sehen lässt wie wir es uns Vorstellen.    

Welche Schritte aus heutiger Sicht sind nötig zur Annäherung an künstliche Intelligenz? 

Es sind die drei Entwicklungsstufen von Intelligenz nötig, übernommen aus der Evolution, welche den theoretischen Ansatz bilden:  

  1. Die physikalische Intelligenz eines Systems die Umwelt zu Erfahren und zu reagieren.
  2. Aufbauend auf den ersten Schritt muss das System ein internes Selbstmodell errichten und sich selbst organisieren.
  3. Zur virtuellen Ebene aus Schritt zwei muss die phenomenale Ebene (Beschreibungswissen) dazustossen. Dadurch könnte ein selbst errichtet werden. Ein Ich. (Ich denke, also bin Ich)

  

Meine Schlussvolgerung

Meine Schlussvolgerung habe ich in myknow umgesetzt:  

  • Jedes System soll das machen was es am besten kann
    • Der Mensch denkt
    • Die Maschine rechnet

Der Mensch entlehnt der Maschine durch Entscheidungen seine kognitiven Fähigkeiten.  

Die Maschine entlehnt dem Menschen seine rechnerisschen, statistischen Möglichkeiten. (Bei myknow in Form von evolutionären Algorithmen und Analogons zur Populationskinetik )  

myknow funktioniert auf der Basis dieses symbiotischen Systems.  

  

 Weiterführende Links:   

6 Kommentare

  1. Roger Seeli says:

    Matthias Horx im Buch Technolution S. 69 schreibt:
    Intelligenz, so ahnen wir, ist nicht technologisch objektivierbar. Sie hat etwas mit Macht zu tun, mit Interpretations- und Unterscheidungsprozessen, die genuin humanen Kriterien unterliegen. Maschinen „intelligent“ zu machen ist nicht nur sehr, sehr schwer. Es ist vielleicht auch sehr dumm. Sollten Maschinen nicht lieber das Dumme für uns erledigen, damit wir schlauer werden können?

  2. Roger Seeli says:

    Donald a. Norman formuliert die Gefahr vor intelligenten Maschinen so:
    Maschinen, die versuchen, die Motive und Handlungen von Menschen vorauszuahnen und zu interpretieren, sind dazu verdammt, beunruhigend im besten und gefährlich im schlechtesten Fall zu sein.

    Donald A Norman in „The Design of Future Things“ S.77

  3. Roger Seeli says:

    Matthias Horx im Buch Technolution S.70 schreibt:

    Ein grosser Teil des KI-Hypes, des Geredes von künstlicher Intelligenz, verdanken wir einem simplen Missverständnis: „Denken“ wird hier als simple Rechenoperation definiert.
    Dass das menschliche Hirn eben mehr als ein rechenwerk ist, lässt sich offenbar nur schwer begreifen.

  4. Roger Seeli says:

    Alan Hodges schrieb in „Alan Turing, the Enigma of Intelligence“ S.63:

    Die Erfindung von künstlicher Intelligenz wäre so, als würde man einen Haufen Arbeit in die Erfindung von Autos stecken, die auf Beinen laufen können, statt das Rad weiter zu nutzen.

Schreibe einen Kommentar


*