Das chinesische Zimmer
„Das chinesische Zimmer“ ist ein Gedankenexperiment des Philosophen John Searle und stellt die künstliche Intelligenz (oder KI, wie man sie gerne nennt), die heutzutage in aller Munde ist, in Frage.
Man stelle sich ein Zimmer vor, in dem eine Person sitzt, die der chinesischen Sprache nicht mächtig ist.
Sie bekommt einen Zettel übergeben, auf dem chinesische Geschichten in chinesisch geschrieben stehen und einen weiteren Zettel, auf dem Fragen zu diesen Geschichten stehen (ebenfalls auf chinesisch).
Sie kann weder den einen, noch den anderen lesen, geschweige denn verstehen.
Sie hat aber ein Handbuch das in ihrer Muttersprache geschrieben ist mit dem sie die Zeichen aus den Geschichten mit denen aus den Fragen in Verbindung bringen kann.
Ausserdem hilft es ihr Antworten zu den Geschichten und Fragen zu formulieren (alles, ohne den Inhalt der Geschichten zu kennen). Sie folgt also rein mechanisch einem Plan, der ihr per Handbuch vorgegeben wird (ähnlich einem Programm).
Ein chinesischer Muttersprachler, der vor der Türe die Antwortzettel in Empfang nimmt, würde also annehmen, dass sich im Raum ebenfalls jemand befindet, der der chinesischen Sprache mächtig ist. Das ist aber nicht der Fall.
Dieses Beispiel soll aufzeigen, dass die künstliche Intelligenz, so wie wir sie heute kennen, nicht einfach durch einen Programmablauf (selbst wenn er sehr genau dem menschlichen neuronalen Netz nachempfunden sein sollte) Bedeutungen erlernen kann.
Auch wenn es für einen Aussenstehenden so aussieht. Die Intelligenz wird lediglich simuliert, sie ist nicht tatsächlich vorhanden.
Eine interessante These. Ab wann ist ein System tatsächlich intelligent ?
So wie wir bis heute intelligente Technik verstehen, ist sie noch Welten entfernt von einem selbst denkenden Organismus.
Wobei man allerdings nicht vergessen sollte, dass auch Denkprozesse bei Kleinkindern erst einmal ein unbewusstes Verarbeiten von Reizen sind, die bestimmten Regeln folgen, ähnlich einem Programm.
Es ist also alles mehr oder weniger offen und bereit erforscht zu werden.
Und geforscht wird „auf Teufel komm raus“. Die Staaten dieser Erde versuchen sich gegenseitig zu übertrumpfen im Wettlauf um die Geburt des ersten tatsächlich intelligenten Systems.
Im westen Beijings zum Beispiel soll eine Art Industriepark entstehen, der Themen wie Deep Learning, Big Data, Cloud Computing und Biometrie gewidmet ist.
Man spricht von knapp zwei Milliarden Euro, die investiert werden sollen. Das ist eine klare wirtschaftliche Kampfansage an alle anderen Nationen dieser Welt und erinnert stark an den „Wettlauf ins All“ zwischen Amerika und der Sowjetunion in den 50er und 60er Jahren (Sie erinnern sich bestimmt noch an den Artikel Der lange Marsch zum Himmelspalast).
Interessant ist auch, dass es derzeit weltweit viel zu wenig Experten auf diesem Gebiet gibt und China, indem es massive finanzielle Mittel für die Forschungen bereitstellt, viele von ihnen aus anderen Ländern abwerben könnte.
Aus Angst, den Wettlauf nicht gewinnen zu können, haben sich Unternehmen wie Google bereits dazu bereit erklärt in China ein KI-Team aufzubauen um entsprechende Leute anzuwerben.
Dabei spricht man auf einmal ganz versöhnliche Worte, wenn es um die Zusammenarbeit mit grossen chinesischen Unternehmen geht.
Und das obwohl Google sich vor nicht all zu langer Zeit vom chinesischen Markt als Suchmaschine zurückziehen musste.
Nach Elektroauto und Solarenergie könnte dies ein weiterer Pfeiler für ein starkes China werden, das sich schon lange nicht mehr hinter westlichen Industrienationen verstecken muss.
Und wenn wir dann irgendwann soweit sind, ist es an der Zeit sich zu fragen ob man eine künstliche Intelligenz ohne Einschränkungen zulassen will oder ob man ihr gewisse Ethikregeln implementiert.
Grosse Vordenker haben sich über diese Themen bereits vor langer Zeit ihre Köpfe zerbrochen, allen voran Science Fiction Autoren wie Isaac Asimov (wobei ihm das nicht ganz gerecht wird. Er war darüber hinaus auch Sachbuchautor und Biochemiker).
Bereits 1942 ersann er in der Kurzgeschichte „Runaround“ die sogenannten Robotergesetze, die sich natürlich auch auf Syteme der künstlichen Intelligenz anwenden liessen.
Diese setzen sich wie folgt zusammen:
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
- Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Diese sind später noch erweitert worden, aber im Kern sind sie noch so wie er sie damals entworfen hat.
Das sind ganz klare Vorgaben, die nicht bloss in der Welt der Science Fiction ihren Platz haben, sondern auch in der wirklichen Welt und in der Forschung.
Gerade heute bei grossen Themen wie künstlicher Intelligenz und künstlichen neuronalen Netzen stellt sich die Frage ob man sie mit einbeziehen sollte.
Wir alle wissen, dass Forschung immer sehr ernsthaft und mit vergleichsweise grosszügig bemessenen Geldmitteln im militärischen Bereich betrieben wird.
Und genau hier ist man natürlich nicht an derartigen Einschränkungen interessiert. Ein intelligentes Waffensystem soll schliesslich töten. Da kann man kein künstliches Gewissen gebrauchen.
Und ein weiteres Dilemma tut sich hier auf: Wenn Systeme eines Tages tatsächlich Bedeutung erfassen können, haben sie dann ein Bewusstsein ? Und wie sicher können wir sein ob oder ob dies nicht der Fall ist ?
Schliesslich behaupten wir bis heute, dass der Mensch eine Seele besitzt, ohne den geringsten Nachweis vorlegen zu können.
Wir gehen einfach davon aus, dass es so ist. Wie könnte man dann behaupten, dass ein intelligentes System, das eventuell ein Bewusstsein besitzt keine Seele hat ? Handelt es sich hier um ein denkendes Wesen, das dann auch Rechte haben sollte ?
Und dürfen wir dieses Bewusstsein dann überhaupt beschränken ? Dürfen wir einem Bewusstsein bestimmte Denkmuster vorenthalten ? Selbst die Asimovschen Gesetze würden die Willensfreiheit einschränken, schliesslich verlangen wir, dass ein Menschenleben als schützenswerter eigestuft wird als das eigene und heben somit in diesen Fällen komplett den Selbstschutz der KI auf.
Das was als menschlicher Selbstschutz gedacht ist, könnte dann schnell zu moderner Sklaverei werden.
Klar, es handelt sich bloss um ein Ding, richtig ? Aber sind das nicht genau die Sprüche mit denen man früher auch Menschen anderer Hautfarbe oder Herkunft die Menschenwürde aberkannt hat um sie zu versklaven ?
Wie können wir sicher sein, dass es sich bloss um ein Ding handelt, wenn wir nicht einmal unsere eigene Existenz mangels Wissen über Dinge wie „die Seele“ oder ähnlichem, rechtfertigen können ?
Sie sehen, nicht alleine die Technik, sondern in besonderer Weise auch die Philosophie sind hier von entscheidender Wichtigkeit, wie unsere Zukunft wohl aussehen könnte.
Und somit wären wir dann auch schon wieder bei den unzähligen Science Fiction Geschichten angekommen, die in Buch- oder Filmform, vom Kampf Mensch gegen Maschine handeln.
Wir wissen nicht, wie weit ein mögliches Skynet noch entfernt sein mag.
Wir können nur hoffen, dass die Menschheit ihrerseits schnell genug intelligent wird, um die kommenden künstlichen intelligenten Systeme früh genug in die richtige Richtung zu lenken.
Man stelle sich ein Zimmer vor, in dem eine Person sitzt, die der chinesischen Sprache nicht mächtig ist.
Sie bekommt einen Zettel übergeben, auf dem chinesische Geschichten in chinesisch geschrieben stehen und einen weiteren Zettel, auf dem Fragen zu diesen Geschichten stehen (ebenfalls auf chinesisch).
Sie kann weder den einen, noch den anderen lesen, geschweige denn verstehen.
Sie hat aber ein Handbuch das in ihrer Muttersprache geschrieben ist mit dem sie die Zeichen aus den Geschichten mit denen aus den Fragen in Verbindung bringen kann.
Ausserdem hilft es ihr Antworten zu den Geschichten und Fragen zu formulieren (alles, ohne den Inhalt der Geschichten zu kennen). Sie folgt also rein mechanisch einem Plan, der ihr per Handbuch vorgegeben wird (ähnlich einem Programm).
Ein chinesischer Muttersprachler, der vor der Türe die Antwortzettel in Empfang nimmt, würde also annehmen, dass sich im Raum ebenfalls jemand befindet, der der chinesischen Sprache mächtig ist. Das ist aber nicht der Fall.
Dieses Beispiel soll aufzeigen, dass die künstliche Intelligenz, so wie wir sie heute kennen, nicht einfach durch einen Programmablauf (selbst wenn er sehr genau dem menschlichen neuronalen Netz nachempfunden sein sollte) Bedeutungen erlernen kann.
Auch wenn es für einen Aussenstehenden so aussieht. Die Intelligenz wird lediglich simuliert, sie ist nicht tatsächlich vorhanden.
Eine interessante These. Ab wann ist ein System tatsächlich intelligent ?
So wie wir bis heute intelligente Technik verstehen, ist sie noch Welten entfernt von einem selbst denkenden Organismus.
Wobei man allerdings nicht vergessen sollte, dass auch Denkprozesse bei Kleinkindern erst einmal ein unbewusstes Verarbeiten von Reizen sind, die bestimmten Regeln folgen, ähnlich einem Programm.
Es ist also alles mehr oder weniger offen und bereit erforscht zu werden.
Und geforscht wird „auf Teufel komm raus“. Die Staaten dieser Erde versuchen sich gegenseitig zu übertrumpfen im Wettlauf um die Geburt des ersten tatsächlich intelligenten Systems.
Im westen Beijings zum Beispiel soll eine Art Industriepark entstehen, der Themen wie Deep Learning, Big Data, Cloud Computing und Biometrie gewidmet ist.
Man spricht von knapp zwei Milliarden Euro, die investiert werden sollen. Das ist eine klare wirtschaftliche Kampfansage an alle anderen Nationen dieser Welt und erinnert stark an den „Wettlauf ins All“ zwischen Amerika und der Sowjetunion in den 50er und 60er Jahren (Sie erinnern sich bestimmt noch an den Artikel Der lange Marsch zum Himmelspalast).
Interessant ist auch, dass es derzeit weltweit viel zu wenig Experten auf diesem Gebiet gibt und China, indem es massive finanzielle Mittel für die Forschungen bereitstellt, viele von ihnen aus anderen Ländern abwerben könnte.
Aus Angst, den Wettlauf nicht gewinnen zu können, haben sich Unternehmen wie Google bereits dazu bereit erklärt in China ein KI-Team aufzubauen um entsprechende Leute anzuwerben.
Dabei spricht man auf einmal ganz versöhnliche Worte, wenn es um die Zusammenarbeit mit grossen chinesischen Unternehmen geht.
Und das obwohl Google sich vor nicht all zu langer Zeit vom chinesischen Markt als Suchmaschine zurückziehen musste.
Nach Elektroauto und Solarenergie könnte dies ein weiterer Pfeiler für ein starkes China werden, das sich schon lange nicht mehr hinter westlichen Industrienationen verstecken muss.
Und wenn wir dann irgendwann soweit sind, ist es an der Zeit sich zu fragen ob man eine künstliche Intelligenz ohne Einschränkungen zulassen will oder ob man ihr gewisse Ethikregeln implementiert.
Grosse Vordenker haben sich über diese Themen bereits vor langer Zeit ihre Köpfe zerbrochen, allen voran Science Fiction Autoren wie Isaac Asimov (wobei ihm das nicht ganz gerecht wird. Er war darüber hinaus auch Sachbuchautor und Biochemiker).
Bereits 1942 ersann er in der Kurzgeschichte „Runaround“ die sogenannten Robotergesetze, die sich natürlich auch auf Syteme der künstlichen Intelligenz anwenden liessen.
Diese setzen sich wie folgt zusammen:
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
- Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Diese sind später noch erweitert worden, aber im Kern sind sie noch so wie er sie damals entworfen hat.
Das sind ganz klare Vorgaben, die nicht bloss in der Welt der Science Fiction ihren Platz haben, sondern auch in der wirklichen Welt und in der Forschung.
Gerade heute bei grossen Themen wie künstlicher Intelligenz und künstlichen neuronalen Netzen stellt sich die Frage ob man sie mit einbeziehen sollte.
Wir alle wissen, dass Forschung immer sehr ernsthaft und mit vergleichsweise grosszügig bemessenen Geldmitteln im militärischen Bereich betrieben wird.
Und genau hier ist man natürlich nicht an derartigen Einschränkungen interessiert. Ein intelligentes Waffensystem soll schliesslich töten. Da kann man kein künstliches Gewissen gebrauchen.
Und ein weiteres Dilemma tut sich hier auf: Wenn Systeme eines Tages tatsächlich Bedeutung erfassen können, haben sie dann ein Bewusstsein ? Und wie sicher können wir sein ob oder ob dies nicht der Fall ist ?
Schliesslich behaupten wir bis heute, dass der Mensch eine Seele besitzt, ohne den geringsten Nachweis vorlegen zu können.
Wir gehen einfach davon aus, dass es so ist. Wie könnte man dann behaupten, dass ein intelligentes System, das eventuell ein Bewusstsein besitzt keine Seele hat ? Handelt es sich hier um ein denkendes Wesen, das dann auch Rechte haben sollte ?
Und dürfen wir dieses Bewusstsein dann überhaupt beschränken ? Dürfen wir einem Bewusstsein bestimmte Denkmuster vorenthalten ? Selbst die Asimovschen Gesetze würden die Willensfreiheit einschränken, schliesslich verlangen wir, dass ein Menschenleben als schützenswerter eigestuft wird als das eigene und heben somit in diesen Fällen komplett den Selbstschutz der KI auf.
Das was als menschlicher Selbstschutz gedacht ist, könnte dann schnell zu moderner Sklaverei werden.
Klar, es handelt sich bloss um ein Ding, richtig ? Aber sind das nicht genau die Sprüche mit denen man früher auch Menschen anderer Hautfarbe oder Herkunft die Menschenwürde aberkannt hat um sie zu versklaven ?
Wie können wir sicher sein, dass es sich bloss um ein Ding handelt, wenn wir nicht einmal unsere eigene Existenz mangels Wissen über Dinge wie „die Seele“ oder ähnlichem, rechtfertigen können ?
Sie sehen, nicht alleine die Technik, sondern in besonderer Weise auch die Philosophie sind hier von entscheidender Wichtigkeit, wie unsere Zukunft wohl aussehen könnte.
Und somit wären wir dann auch schon wieder bei den unzähligen Science Fiction Geschichten angekommen, die in Buch- oder Filmform, vom Kampf Mensch gegen Maschine handeln.
Wir wissen nicht, wie weit ein mögliches Skynet noch entfernt sein mag.
Wir können nur hoffen, dass die Menschheit ihrerseits schnell genug intelligent wird, um die kommenden künstlichen intelligenten Systeme früh genug in die richtige Richtung zu lenken.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt