Maschinenintelligenz

Gestern las ich einen interessanten wissenschaftlichen Artikel, über die Intelligenz von Maschinen und die Möglichkeiten von deren zukünftiger Entwicklung.

Wer niemals intensiver als per WORD und Co. mit Computern zu tun hatte, wer nie erlebt hat, wie ein neuronales Netz „sprechen“ lernt oder eine, vergleichsweise primitive, Prologshell, richtig programmiert, scheinbar eigene „Gedanken“ entwickelt, für den mag das der Sound einer fernen Zukunft sein.

Mir stellen sich bei dem Gedanken allerdings die Nackenhaare zu Berge, weniger aus Angst vor den Maschinen selbst, als vor den Auswirkungen der Fehler, die uns bei deren Erschaffung passieren.

Die Anfänge sind so simpel, dass ein kleines Kind sie verstehen könnte. Denn indem man einem Programm nur wenige Aufgaben einprogrammiert, ist es schon „lernfähig“ und zwar genau so, wie Kinder das auch tun.

Gib einem Programm einige Frageworte oder-sätze.

Sage ihm, dass er sich die Antwort des Nutzers merken soll und, sollte die Frage wieder gestellt werden, antworten.

Mit jedem Nutzer wird sein „Wissen“ nun größer. Grenzen sind hier allerdings durch die Geschwindigkeit und den Umfang des Speichers gesetzt. Und natürlich kann das System noch nicht „handeln“, es kann bislang nur Daten sammeln.

Hier sehen wir aber auch den ersten Schwachpunkt. Woher weiß der Computer, dass eine Antwort wahr ist?

Helfen wir ihm also. Sagen wir ihm, er soll sich eine Frage, die nur einmal gestellt wurde, „merken“ und weitere Antworten dazu einholen. Aus der Gesamtmenge soll er die Antwort, die am häufigsten kommt, als wahrscheinlich richtige auswählen.

Und was machen wir mit Fragen, auf die es keine „richtige“ oder „falsche“ Antwort gibt, sondern höchstens eine Meinung?

Nun, damit soll er halt gar nix machen, sondern sie als Meinung wiedergeben, wobei er, je nachdem, zu welcher Denkweise mehr User tendieren, sagen kann, dass die eine oder andere Ansicht überwiegt.

Aber auch damit kann der Rechner noch keinen Unfug anstellen. Er kann ja nur hören und sprechen, nichts wirklich ändern.

Natürlich können wir auf diesem Weg aber noch ein Stück weiter gehen. Wir können ihn lehren, Verbindungen her zu stellen zwischen Antworten. So wäre es recht einfach, einem Rechner bei zu bringen, dass jeder Mensch nur einen Vater und eine Mutter hat und Menschen, die die gleichen Eltern haben, Geschwister sind.

Damit wäre ein sehr einfaches, datenbankgestütztes System bereits in der Lage jemandem zu sagen, dass er z.B. einen Bruder oder eine Schwester hat, wenn zwei Nutzer auf Anfrage die gleichen Eltern angeben.

Was z.B. bedeutet das für Ahnenforscher? Würden Ahnenforscher korrekt alle ihnen zur Verfügung stehenden Daten in so eine Shell eingeben, könnte der Computer durch Auswertung aller Daten, viel schneller komplexe Stammbäume erstellen, als je ein Mensch dazu in der Lage wäre.

Aber noch immer sind wir an einer Stelle, wo Rechner, wie magisch das auch erscheinen mag, Daten nur verwalten und auswählen, aber nicht „wirklich“ verändern.

Doch gibt es Zusammenhänge, die bereits auf dieser Stufe sehr wohl den Eindruck von eigenständigem Denken erwecken könnten.

Da Rechner Daten sehr viel schneller auswerten können, als ein einzelner Mensch, erschließen sich ihnen Zusammenhänge auch wesentlich schneller.

Ob diese nun richtig oder falsch sind, hängt selbstredend davon ab, ob die Ausgangsdaten, mit denen man den Rechner fütterte, richtig waren.

Doch was geschieht, wenn wir den Rechner befähigen, was durchaus möglich ist, sich selbst zu verändern, sofern seine Informationen das für sinnvoll erscheinen lassen?

Gehen wir davon aus, dass ein Rechner gewaltige Datenmengen bearbeiten kann, wird der Punkt kommen, an dem wir seinen Erläuterungen, WARUM er etwas verändert, nicht mehr folgen können.

Auch das ist noch immer keine K.I., denn die Möglichkeiten der Veränderung wären immer noch durch menschliche Vorgaben begrenzt.

Nur … auch ein kleines Kind schafft es, früher oder später, das Laufgitter zu überklettern, das die Eltern aufgestellt haben, sofern es rundherum einen Raum gibt, in den es klettern kann.

Und ich halte es durchaus nicht für unmöglich, dass bei der derzeitigen rasanten Entwicklung der Rechen- und Speicherkapazitäten, ein Computer diese Hürde früher oder später nehmen wird. Ganz abgesehen davon, dass komplexere Systeme natürlich ganz andere Daten erhalten und ihr „Frage- Antwort“ Spiel nicht mehr über direkte Nutzereingaben erfolgt.

Irgendwann werden wir uns sicher wirklich die Frage stellen müssen, ob wir die Geister, die wir riefen, überhaupt noch beherrschen und es wird ein Prüfstein für unsere Spezies sein, wenn wir die Folgen der Dinge sehen, die wir versäumt haben, unserer Schöpfung mit zu geben, oder die wir, evtl. wider besseres Wissen, unser Baby falsch gelehrt haben.

Keine Gesetze der Robotik (Siehe bei Isaac Asimov) werden uns vor unseren Geschöpfen schützen, denn so wie wir selbst, erwachsen geworden, durchaus lügen, morden und stehlen können, wenn es wirklich unsere Absicht ist, so wird sich auch eine künstliche Intelligenz irgendwann über diese vorgegebenen Schranken hinwegsetzen können.

Das heißt, ob unsere Schöpfung uns irgendwann einmal freundlich oder feindlich gegenüberstehen wird, wird nicht von unserem Wissen oder unserem Fleiß bei deren Erschaffung abhängen, sondern einzig und allein von der Frage, welche Art von Menschlichkeit wir ihnen mit auf den Weg geben.

Denn, wie jedes normale menschliche Kind, werden auch die K.I.s viele Jahre lang einzig Produkte ihrer Erziehung sein und ihre Eltern sind nun mal Menschen.

Xela

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>