Empfehlen Sie uns weiter
  • Zu Ihrer Information

    Wenn Sie diesen Button anklicken, werden persönliche Daten an Facebook übertragen. Sind Sie damit einverstanden?

  • Zu Ihrer Information

    Wenn Sie diesen Button anklicken, werden persönliche Daten an Twitter übertragen. Sind Sie damit einverstanden?

  • Zu Ihrer Information

    Hier können Sie mittels unseres Service-Formular eine Seite empfehlen. Es werden keine persönlichen Daten gespeichert.

Nominierter Text

Von Andrian Kreye

Berührungspunkte

Die meisten Menschen verbinden nur das Schlechteste mit künstlicher Intelligenz – Jobkiller, Mediensucht, emotionslose
Roboter. Dabei erleichtert KI längst auch unseren Alltag. Sogar der Vatikan hat ihre Vorzüge erkannt. Eine weltumspannende Reise zu Apokalyptikern und euphorischen Wissenschaftlern.

Wenn man davon ausgeht, dass der Intelligenzquotient von Albert Einstein bei geschätzten 180 lag und der von Johann Wolfgang von Goethe bei 210, dann ist die Aussicht, dass der digitale Mensch mittels künstlicher Intelligenz (KI) in naher Zukunft über einen IQ von 2 000 verfügen wird, eher beunruhigend. Der Mann, der das prophezeit, heißt Ray Kurzweil, ein stets leicht schmunzelnder, gebürtiger New Yorker von 70 Jahren, geschätzter IQ 140, von Beruf Informatiker, aber in den USA vor allem wegen seiner kühnen Zukunftsprognosen berühmt.

Die Technologie, die aus Mensch und Maschine Superwesen machen wird, gibt es bisher nur in seiner Vorstellung. Derzeit bedeutet künstliche Intelligenz immer noch lediglich, dass ein Computerprogramm dazulernen und sich dann ohne menschliche Hilfe selbst optimieren und Entscheidungen fällen kann. KI kann damit vor allem große Datenmengen analysieren, mit denen sie dann beispielsweise Bilder identifiziert. Oder Menschen in einer Menge. Oder hochkomplexe Statistiken erstellen, deren Ergebnisse sie in Entscheidungen umwandelt, wie zum Beispiel Kaufempfehlungen für Onlinehändler oder wann ein selbstfahrendes Auto beschleunigt oder bremst.

Ray Kurzweil sagt allerdings, dass die Menschheit gerade an der Schwelle eines Evolutionssprungs steht, an dem sich Natur und Technologie zu einer Einheit verbinden: Das menschliche Gehirn wird einen digitalen Neocortex entwickeln, also einen neuen Teil der Großhirnrinde, der sich über eine Schnittstelle mit einer digitalen Wolke künstlicher Intelligenz verbindet, aus der sämtliche Daten und Informationen des Weltwissens abrufbar sind. Das steht im deutlich euphorischen Widerspruch zur anderen Fraktion der KI-Debatte, die nicht weniger als den Untergang der Menschheit prophezeit. Zu der gehören immerhin der im März diesen Jahres verstorbene Physiker Stephen Hawking und der Superunternehmer Elon Musk.

Glaubt man dem Tesla-Gründer Musk (IQ 155) oder Hawking (IQ 160), werden künstliche Intelligenzen die Menschheit vernichten. Musk sagt, KI sei schlimmer als Atomwaffen. Deswegen baut er auch Raumschiffe, mit denen er Menschen auf den Mars umsiedeln möchte.

Ganz und gar nicht apokalyptisch sieht Ray Kurzweil die Zukunft. Bei seinem Vortrag an der amerikanischen Westküste neulich wirkte er sehr überzeugt davon, dass sich das menschliche Gehirn mit der KI-Technologie zu einer Einheit verbinden werde. Diese Entwicklung werde vom Moment der „singularity“ eingeleitet werden. So bezeichnet er die Intelligenzexplosion, wenn KI das Denkvermögen und Bewusstsein des Menschen erreichen und dann schon bald übertreffen wird. Und weil das Publikum an diesem Nachmittag aus rund 50 geladenen Gästen aus dem zukunftsgläubigen Umfeld des Silicon Valley bestand, gab es im angenehm ausgeleuchteten Konferenzraum im Kongresszentrum von Vancouver auch keinen Widerspruch.

Der Hi-Tech-Korridor von Vancouver bis San Diego ist eine hermetische Welt, deren Bewohner selten aus den Instituts- und Bürokomplexen entlang der Westküste herauskommen. Und wenn sie hin und wieder mal bei einer der Hi-Tech-Konferenzen am ernährungswissenschaftlich wertvollen Büffet Kontakt mit der Außenwelt bekommen, sind auch das wohlkuratierte Begegnungen.

Die Gäste an diesem Nachmittag waren auch nicht nur gekommen, um einem Zukunftsvisionär zu lauschen. An der Westküste sind Propheten einer glorreichen Zukunft der künstlichen Intelligenz auch die Pfadfinder auf dem Weg zum nächsten Goldrausch. Seit drei Jahren hetzen Investoren und Risikokapitalgeber, Start-up-Gründer und Digitalkonzerne wie eine geschlossene Meute den Verheißungen der künstlichen Intelligenz hinterher. Was vor fünf Jahren noch die unzähligen Anwendungen des „Web 2.0“ waren, die sozialen Netzwerke wie Facebook und Twitter oder die Vertriebsplattformen wie Uber und Airbnb, sind heute die künstlichen Intelligenzen.

Nach Schätzungen der Wirtschaftsprüfer von PricewaterhouseCoopers werden KI-Technologien bis 2030 das weltweite Bruttosozialprodukt um 14 Prozent steigern, das entspricht mehr als 15 Billionen Dollar und damit vier Bruttosozialprodukten der Bundesrepublik. Wenn ein prominenter Technologe wie Kurzweil verkündet, KI sei nicht nur der Beginn eines neuen Maschinenzeitalters, sondern gar ein evolutionärer Schritt in der Geschichte des Planeten, ist der Beifall garantiert.

Kurzweils Bild vom digitalen Neocortex ist brillant. Die Entwicklung jenes Teils der Großhirnrinde, der unter anderem Sprache, Wahrnehmung und räumliches Vorstellungsvermögen steuert, war das bisher wichtigste Ereignis in der Geschichte des irdischen Lebens und der Beginn des Weges von der Kröte zu Goethe und Einstein. Der Neocortex ermöglichte den Säugetieren Wahrnehmungsformen, Lern- und Erkenntnisprozesse, die aus Reflexen durchdachte Handlungen machten. Denkt man die digitale Entwicklung weiter, wird die Vereinigung von natürlicher mit künstlicher Intelligenz also das zweitwichtigste Ereignis der Evolution sein.

Geht es nach Ray Kurzweil, sogar das wichtigste. Er lehnt sich an diesem Nachmittag auf der Rednerbü hne zufrieden in seinem Polsterstuhl zurück, als er das erläutert. „In den 2030er-Jahren werden wir uns mit der intelligenten Technologie vereinen, die wir erschaffen“, sagt er im Ton eines Wissenschaftlers, der belegte Tatsache referiert. „Vor zwei Millionen Jahren bekamen wir den Neocortex und haben ihn an die Spitze der Hierarchie unseres Hirns gesetzt. Ähnlich wie schon vor zwei Millionen Jahren, werden wir diesen zusätzlichen Neocortex an die Spitze der Hierarchie setzen.“ Allerdings sei es dieses Mal kein einmaliger Vorgang. „Hätten wir vor zwei Millionen Jahren das Volumen unserer Schädel immer weiter vergrößert, wäre irgendwann die Geburt nicht mehr möglich gewesen, weil der Schädel nicht mehr durch den Geburtskanal gepasst hätte.“

Doch die Kraft der Cloud sei nicht auf einen begrenzten Raum angewiesen. Derzeit verdoppele sie ihre Kraft jedes Jahr. „Wir werden unendliche Ausdehnungsmöglichkeiten unseres Hirns haben. Und genauso, wie wir vor zwei Millionen Jahren neue Ausdrucksformen gefunden haben wie die Sprache und die Musik, werden wir neue Ausdrucksformen schaffen, die wir uns noch gar nicht vorstellen können.“

Wie aufgeladen die Debatte geführt wird, zeigt das Beispiel Stephen Hawking. Der Physiker wurde falsch zitiert. Die Vernichtung der Menschheit durch KI hatte er nur als eines von vielen Szenarien aufgezählt. Das vollständige Zitat lautete: „Erfolg bei der Erschaffung effektiver künstlicher Intelligenz könnte das größte Ereignis in der Geschichte unserer Zivilisation werden. Oder das schlimmste. Wir wissen es einfach nicht. Deswegen können wir auch nicht sagen, ob uns künstliche Intelligenz letztlich helfen wird, ob sie uns ignoriert, ob sie uns kaltstellt oder zerstört.“

Aber eine Hawking-Apokalypse passt nun mal in einen öffentlichen Diskurs, der vor allem von Angst getrieben ist. Für die es ja gute Gründe gibt. Die ersten Begegnungen der Menschheit mit den ersten künstlichen Intelligenzen in den vergangenen zehn, fünfzehn Jahren gingen jedenfalls nicht besonders gut aus. Denn in den Industrienationen ist künstliche Intelligenz längst fester Bestandteil des Alltags.    Sie heißt nur nicht so.

KI im deutschen Alltag bedeutet im Jahr 2018 zum Beispiel: E-Mail-Programme wie Outlook, Suchmaschinen wie Google, soziale Netzwerke wie Facebook und Twitter, Entertainmentportale wie Youtube und Spotify, Shoppingseiten, Navigationssysteme, Sprachsteuerungen wie Siri und Alexa, Videospiele wie Fortnite. Das sind allesamt künstliche Intelligenzen, weil sie zum einen Entscheidungsprozesse automatisieren und sich zum anderen durch maschinelle Lernvorgänge ständig selbst verbessern. Als Nutzer bemerkt man das nicht, als Betreiber sehr wohl.

Fast alle diese Anwendungen haben derzeit einen schlechten Ruf. Es hilft auch nicht, dass die Extreme der Debatte religiöse Untertöne haben. Sowohl das Ende der Menschheit als auch der Erweckungsmoment der Singularity erinnern an die Offenbarung des Johannes, das letzte, prophetische Buch des Neuen Testaments, in dem die Apokalypse der Welt ein Ende bereitet und die Entrückung die wahrhaft Gläubigen errettet. Es ist also an der Zeit herauszufinden, was künstliche Intelligenz heute schon kann. Dann fällt die Abschätzung, was sie einmal können wird, leichter.

Auf der Suche nach einem exemplarischen Beispiel für den Stand der Dinge landet man erstaunlicherweise im Vatikan. „In codice ratio“ heißt das KI-Projekt dort, ein lateinischer Begriff für Codesystem. Kein punkt null im Namen und keine Anspielung auf Popkultur. In codice ratio soll das Geheimarchiv des Vatikan erfassen. Das ist im großen Querbau am Cortile del Belvedere untergebracht, ein paar Hundert Meter vom Haupteingang der Porta Sant’Anna entfernt. Statt nach links auf den Petersplatz, biegt man nach rechts ab. Ganz so geheim, wie der offizielle Titel „Archivum Secretum Apostolicum Vaticanum“ suggeriert, ist das Archiv nicht. Wissenschaftler und ausgesuchte Reisegruppen dürfen die düsteren Säle und fensterlosen Lagerräume durchaus besuchen, in denen sämtliche Dokumente, Akten und Korrespondenzen des Heiligen Stuhls seit dem achten Jahrhundert gelagert sind.

Das Problem der Archivierung dort ist, dass Dokumente vom achten Jahrhundert bis zur Erfindung und Verbreitung des Buchdrucks 700 Jahre später digital nicht erfassbar sind. Handschriften sind nicht maschinenlesbar. Und weil das Mittelalter nicht nur eine Ära der handschriftlichen Bürokratie war, sondern die Zeit, in der der Heilige Stuhl die einflussreichste Weltmacht war, fehlt der modernen Geschichtsschreibung der Einblick in ein großes Stück Weltgeschichte.

Das Labor des „In codice ratio“-Projektes ist eine gute halbe Autostunde von den prä chtigen Hallen des Vatikan entfernt im zweiten Stock eines Backsteinbaus auf dem Campus der Universita degli Studi Roma Tre untergebracht. Labor klingt dabei etwas zu elegant für das nüchterne Arbeitszimmer des Professors Paolo Merialdo, mit einem handelsüblichen PC auf dem Schreibtisch und einem Bücherregal, das etwas verwaist wirkt mit seinen unsortierten Lehrbüchern und Aktenordnern.

Merialdos Team versammelt sich um einen leeren Tisch, an dem sie ihre Konferenzen abhalten, was nicht so oft vorkommt, weil sie meist über Rechner kommunizieren. Die beiden Doktorandinnen Elena Nieddu und Donatella Firmanai arbeiten mit Merialdo an der Programmierung, dazu kommt Serena Ammirati, eine Paläografin, also eine Wissenschaftlerin, die ausgestorbene Schriften erforscht. Wenn die vier auf einen einreden, wenn sie beschreiben, wie sie ihren Rechnern Schritt für Schritt etwas Neues beibringen, merkt man erst, was für ein störrisches Biest so eine künstliche Intelligenz ist.

Die Aufgabe ist gewaltig. Nicht nur, weil das Geheimarchiv 83 Regalkilometer Akten, Dokumente und Bü cher umfasst. Briefe von Michelangelo finden sich darin genauso wie die Bannbulle, mit der Papst Leo X. Martin Luther aufforderte, seine 95 Thesen zurückzunehmen, oder der Brief, in dem Heinrich VIII. den Papst Clemens VII. um die Annullierung seiner Ehe bat.

In die Tiefen des Archivs steigen sie allerdings nur selten. Für die erste Phase ihres Projektes haben sie sich ein paar Seiten aus den Akten des 11. Jahrhunderts ins Institut geholt. Was da drinsteht, ist nicht so wichtig. Nein, der wichtigste Grund, den Serena Ammirati mit großer Geduld erklärt, ist die schon sehr einheitliche Schrift des 11. Jahrhunderts, die den Forschern heute die Arbeit sehr viel leichter macht. Meist geht es in den Dokumenten um Geld. Der Papst war so etwas wie der Kredithai seiner Tage. Da gab es viel zu verhandeln.

Buchstabe für Buchstabe muss die Software nun erst einmal lernen, die Schrift zu erkennen, sie zu Wörtern und dann zu Sätzen zusammenzufügen. Wie das geht, zeigt Elena Nieddu mit ein paar Grafiken, die sie für Laien vorbereitet hat.

Die Software unterteilt jedes Wort in eine Reihe von Fenstern, die halbe und Drittelbuchstaben erfasst, die für die Software zu Puzzleteilen werden. Um zum Beispiel das lateinische Wort „sententie” (Maximen) zu erkennen, durchläuft die KI über fü nfzehntausend Arbeitsschritte. Je mehr Beispiele man in so eine künstliche Intelligenz hineinfüttert, desto besser kann sie lernen. In codice ratio ist ein System aus sogenannten neuronalen Netzen, das mit statistischen Sprachmodellen arbeitet. Das heißt, die Software kann Schrift und Sprache erkennen, aber nicht verstehen.

Um den Datensatz rasch zu erweitern, arbeiten 600 italienische Gymnasiasten für das Team. Die sehen auf einer Webseite Buchstaben aus den mittelalterlichen Dokumenten. Als Menschen können sie die mit einem Blick entziffern. Sie bekommen also immer einen Buchstaben gezeigt, tragen ihn dann in moderner Schrift in ein Formular ein, das diese Information dem Datensatz hinzufügt. Eine Art Nachhilfe für künstliche Intelligenz.

Eine sehr mühsame Nachhilfe. Die italienischen Schüler haben für In codice ratio schon fünf Millionen Zeichen für die Forscher identifiziert. Das ist für eine künstliche Intelligenz nicht viel. Nach den strengen Parametern der KI-Forschung im amerikanischen Westen wäre In codice ratio immer noch eine sogenannte „narrow artificial intelligence“, eine schwache, weil sehr eng definierte KI, die eine oder nur wenige Aufgaben lösen kann, in diesem Falle eine Schrift entziffern.  

Der große Traum der KI-Forschung aber ist die AGI, das ist die Abkürzung für „Artificial General Intelligence“, also für künstliche allgemeine Intelligenz. Das wäre der Punkt, an dem eine KI ihre Fähigkeiten für eine so breite Palette von Problemen anwenden könnte wie der Mensch, der ja schon im Grundschulalter sein Hirn beispielsweise für Lesen, Schreiben, Rechnen, soziale Interaktionen wie Verhandlungen und emotionale Ausdrucksformen nutzen kann, um nur ein paar elementare Aufgabengebiete zu nennen.

Nach dem Erreichen der AGI käme die Singularity, das Maschinenbewusstsein und damit entweder die Beflügelung des Menschen zum Superwesen oder seine Vernichtung. Kann man dem allen ganz beruhigt entgegenblicken, wenn man den Forschern in Rom dabei zugesehen hat, wie sie ihrer künstlichen Intelligenz Strichlein für Strichlein das Lesen beibringen?

Es gibt ja dann auch noch die Naturgesetze, die der Entwicklung Grenzen setzen.

Man kann sich kurz mal auf die Argumentation der sogenannten Transhumanisten einlassen. Zu denen gehören vor allem Kognitionswissenschaftler, Ingenieure, aber auch ein paar Philosophen, die finden, dass der Mensch an sich ein sehr unvollkommenes Wesen ist, der seine Vollkommenheit nur mit Technologie erlangen wird. Das Gehirn bezeichnen Transhumanisten zum Beispiel als „wetware“, was eine Anspielung auf das Wort Software ist, denn ein menschliches Hirn ist ja erst einmal sehr nass und matschig, wenn man es aus seinem Betriebsgehäuse, also dem Schädel, entfernt.

Im Vergleich zu Computern und Supercomputern ist ein Hirn außerordentlich leistungsfähig. Eine Großhirnrinde verfügt zum Beispiel über 25 Milliarden Neuronen, die über die Synapsen um die 100 Billionen Verbindungen bilden können. Sämtliche Leitungen für die Übertragung der elektrischen Impulse, die in der Biologie Nerven genannt werden, ergäben im Hirn eines Zwanzigjährigen zusammengerechnet 160 000 Kilometer. Die Übertragungsgeschwindigkeit dieser Nervenleitungen liegt bei bis zu 460 Stundenkilometern.

Ein Versuch, eine solche Rechenleistung zu simulieren, fand vor acht Jahren in einem Forschungslabor von IBM statt. Mit enormem Aufwand brachten es die Wissenschaftler auf die Leistung eines Katzenhirns (allerdings ohne Software, die diese Leistung hätte nutzen kö nnen). Sie fanden aber auch heraus, dass Energieverbrauch zu den lästigen Naturgesetzen gehört, die KI ausbremsen. Ein Menschenhirn verbraucht zum Beispiel nur rund 20 Watt Energie, das käme in den USA auf eine Stromrechnung von weniger als 20 Dollar im Jahr. Ein Supercomputer, der ähnliches leisten könnte, würde dagegen auf eine Stromrechnung von einer Milliarde Dollar pro Jahr hinauslaufen.

Man kann die Gewissheit, dass Computer die menschliche Intelligenz nie erlangen werden, sogar noch mit der ganzen Wucht der Philosophie untermauern. Denn selbst wenn Rechner mithilfe der großen Datenmengen der „Big Data“-Speichermöglichkeiten, den Methoden des Maschinenlernens und den enormen Rechnergeschwindigkeiten Denkprozesse imitieren können, die bisher den Menschen vorbehalten waren, selbst wenn sich KI und Robotik zu selbständig agierenden Maschinen vereinen, eines werden Rechner nie erlangen: Bewusstsein. Philosophen wie Kenichiro Mogi oder Thomas Nagel können das sehr überzeugend erklären.

Es mag zum Beispiel sein, dass Maschinen so etwas wie Bewusstsein simulieren können, wenn sie mittels Sensoren ihre Umwelt erfassen, analysieren und daraus Rückschlüsse ziehen, wie sie selbst in diesem Umfeld zu agieren haben. Selbstfahrende Autos und hoch entwickelte Roboter müssen eine solche Außenwahrnehmung produzieren, um zu funktionieren. Doch eines fehlt ihnen trotzdem, und das sind die Erfahrungswerte und Emotionen, also die Grundlagen des menschlichen Bewusstseins. KI wird nie mehr sein, als die Karaokemaschine menschlicher Intelligenz.

Es sind sowieso nicht KIs mit einem vierstelligen IQ und einem wie immer gearteten Bewusstsein, die der Menschheit Sorgen machen sollte. Es sind KIs mit dem eng gefassten Aufgabenbereich, die extreme Wirkungskraft erreichen, um diese eine Aufgabe zu erfüllen.

Die großen Web-Portale sind perfekte Beispiele für die eigentliche Gefahr der KI. Und genau die sind eben unsere ersten Begegnungen mit künstlicher Intelligenz, auch wenn das niemand so empfindet, weil künstliche Intelligenz nicht mehr als solche bezeichnet wird, sobald sie Teil des Alltags geworden ist.

Es ist eine extreme Konsequenz oder auch Gnadenlosigkeit, nach denen Rechenprogramme verfahren. Die wird im Silicon Valley gerne mal als Reinform der Objektivität verkauft. Weil ein Computer sich weder von Emotionen, noch vom psychischen Ballast eines menschlichen Lebens leiten lässt.

Was dabei herauskommt ist allerdings oft das Gegenteil. Die Algorithmen von Facebook und Twitter hatten zum Beispiel klare, durchaus gut gemeinte Aufgaben. Sie sollten so viele Menschen wie möglich miteinander vernetzen. Damit die Firmen damit auch Geld damit verdienen konnten, sollten sie nebenbei dafür sorgen, dass sie möglichst viel Zeit auf diesen Plattformen verbringen und dabei Werbung sehen.

Um ein Maximum an Nutzerzeit herauszuschlagen, förderten die künstlichen Intelligenzen dann all jene Emotionen, die Menschen am längsten am Bildschirm halten. Das sind Angst, Hass und Häme.

Die Folgen waren allerdings weit schwerer, als man sich das während den euphorischen Aufbruchszeiten des World Wide Web hätte ausmalen können. Die Erosion des politischen Diskurses und des Wahrheitsbegriffes zum Beispiel. In Europa und den USA führte das zum Aufstieg der Populisten. In vielen südlichen Ländern brachte das Autokraten wie Brasiliens Staatspräsidenten Jair Bolsonaro an die Macht. In Ländern wie Myanmar, Indien und Mexiko peitschten Algorithmen Lynch-Meuten bis zum Mord und Massenmord. Weil künstliche Intelligenzen eben kein Bewusstsein haben, keine Kontexte erkennen und deswegen lediglich stumpf verstärken, was in Gesellschaften schon vorhanden ist.

Deswegen ist es gar nicht so wichtig, ob künstliche Intelligenz dem menschlichen Denken je nahekommen oder es sogar übertreffen wird. Was die Gesellschaft wirklich verändern wird, sind die noch ungeahnten Auswirkungen, wenn die Digitalisierung mit KI in ihre nächste Phase tritt.

Der Schritt über diese nächste Schwelle wird gerade in Austin, Texas, vorbereitet. Der Designer Mark Rolston gehört zu dem Team, das höherer künstlicher Intelligenz den Weg zur Massenanwendung ebnet. Dafür arbeitet er gemeinsam mit der KI-Firma Cognitivescale des ehemaligen IBM Watson-Chefs Manoj Saxena am nächsten Wendepunkt der künstlichen Intelligenz.

Das Programm, das sie seit dem Frühjahr anbieten, heißt Cortex 5. Da ist er wieder, der Cortex. Ähnlich wie der Mantel des menschlichen Gehirns, soll Rolstons Programm die Sinneswahrnehmungen, Informationen und Funktionen einer künstlichen Intelligenz verbinden. Das eigentlich Revolutionäre ist jedoch das Baukastenprinzip, nach dem diese digitale Hirnrinde verschiedene Fähigkeiten einer künstlichen Intelligenz miteinander verbindet. „Man muss sich das wie einen Legobaukasten vorstellen“, sagt er. „Wir liefern die Grundbausteine, die jeder nach Belieben zusammensetzen kann.“

Es ist verblüffend simpel, wie man sich mithilfe des Programms eine künstliche Intelligenz bauen kann. Gemeinsam mit seinem Designer Matthew Santone führt er das vor. Zunächst ruft er die Benutzeroberfläche auf, eine elegante schwarze Fläche, an deren Rand die Steuerelemente sind. Über eine Liste, die ausklappt, sucht man sich die einzelnen „Skills“ der KI aus, die Funktionsmodule. Die muss man in Zukunft nicht mehr eigens programmieren, sondern kann sie aus der Cloud abrufen. Santone nimmt ein Element, das der Nutzer über eine Kamera klassifizieren kann, ein Element, das Kleider erkennt und auswählt, sowie einen sogenannten sentiment analyzer, eine Art digitales Stimmungsbarometer. Es dauert nur wenige Minuten, bis diese Einheiten auf der Oberfläche durch grüne Linien verbunden sind. Das sind die sogenannten Synapsen, Verbindungselemente, nicht unähnlich den Synapsen des Gehirns, die die Elemente so miteinander verbinden, dass sie in jeder beliebigen Kombination miteinander arbeiten können. Was dabei herauskommt, ist die simple Version einer KI, die beispielsweise eine Verkaufswebseite nutzen könnte, um Kleidung nach dem Geschmack ihrer Kunden herauszusuchen.

Seit die Plattform in Betrieb ist, können Nutzer nicht nur die „skills“ auswählen, die Cortex 5 anbieten will, sondern auch eigene solche KI-Programmelemente hochladen, die dann wiederum andere Nutzer gratis oder gegen Gebühr anwenden können. So wird eine riesige Bibliothek solcher Skills entstehen. Wie ernst sie es meinen, zeigt die Liste der Systeme, die über Cortex 5 laufen. Es sind die kü nstlichen Intelligenzen von IBM, Microsoft und der Stanford University. Große Firmen wie Versicherungen, medizinische Betriebe und Banken sollen die ersten Kunden sein.

Das eigentliche Ziel klingt simpel und mächtig. „Mit unserer Plattform“, sagt Cortex 5-Designer Rolston, „wird ein Teenager im Keller seiner Eltern eine künstliche Intelligenz konstruieren können. Wir werden so etwas wie das Musikprogramm Garage Band für die Welt der künstlichen Intelligenz sein.“ Das wäre die Demokratisierung einer Technologie, die im Winter 2018 noch großen Digitalkonzernen und Forschungslaboren vorbehalten ist. Was das für die Zukunft der Digitalisierung bedeutet, kann man noch nicht abschätzen.

Doch auch wenn man die Science-Fiction-Fantasien aus der KI-Debatte guten Gewissens ausblenden kann. Man sollte sogar gleich mal mit den unzähligen KI-Filmbildern im kollektiven Unterbewusstsein beginnen, mit dem Bordcomputer Hal und den Blade Runnern, mit dem Terminator und der Matrix. Die Wahrscheinlichkeit, dass künstliche Intelligenz der Schlüssel zum Übermenschen mit vierstelligem IQ sein könnte, ist nun mal genauso unrealistisch wie die Angst vor der KI-Apokalypse und die Pläne für die Rettung der Menschheit auf den Mars. Die Auswirkungen der nä chsten Phase der Digitalisierung zu unterschätzen wäre allerdings ähnlich verantwortungslos, wie den Klimawandel zu ignorieren. Und es wird ähnlich schwierig sein, die Öffentlichkeit für die Chancen und Gefahren zu sensibilisieren, denn KI durchdringt sämtliche Aspekte des Lebens und des Alltags im Gletschertempo. Man kann die Veränderungen messen, spüren tut sie aber noch niemand.

Es ist während überhitzter Debatten immer hilfreich, sich mit einem vorsichtigen Optimisten zu treffen. Mit John Cohn zum Beispiel. Der arbeitet bei IBM als „chief scientist“ für das Watson IOT (Internet of Things) Center in München. John Cohn gibt sich gerne als verrückter Professor mit zauseligem weißem Bart, wirrem Haarkranz, euphorischem Augenleuchten und dem inoffiziellen Titel als „ chief agitator“. Wenn man im Norden von München mit dem Glasfahrstuhl hoch über die Stadt geschossen ist, wenn man am Eingang dem niedlichen Roboter Pepper die Hand geschüttelt hat, an den Ingenieuren und Sachbearbeitern vorbeigegangen ist, die klischeegerecht fast alle Männer in sandfarbenen Hosen und hellblauen Hemden sind, trifft man dann doch auf einen sehr nachdenklichen Intellektuellen.

Cohn bremst auch gleich. Watson ist zwar jene künstliche Intelligenz, die im Februar 2011 erstmals Schlagzeilen machte, als sie bei der amerikanischen Fernseh-Quizshow „Jeopardy“ zwei menschliche Gegner besiegte. Im Juni 2018 verwies Watson dann den israelischen Debattiermeister Dan Zafrir in die Schranken. Im selben Monat wurde auch eine Watson-KI in einer medizinballgroßen, weißen Kugel namens Cimon ins All geschossen, um dem deutschen Astronauten Alexander Gerst bei seiner Arbeit auf der internationalen Raumstation ISS zu helfen.

John Cohn arbeitet aber gerade gar nicht an einer Weltsensation, sondern an einer künstlichen Intelligenz, die erkennen kann, wie viele Menschen sich gerade in einem Raum oder in einem Gebäude befinden, ohne die Individuen zu identifizieren. Was wichtig ist, wenn man ein Gebäude digital managen und gleichzeitig die Privatsphäre seiner Bewohner oder Besucher wahren möchte.

Wollte man John Cohn auf einer Skala von Elon Musk (Apokalypse) bis Ray Kurzweil (Erweckungsmoment) verorten, fände man ihn im oberen Drittel der Kurzweil-Achse. „Ich glaube durchaus, dass wir Intelligenzen schaffen werden, die in Kombination mit menschlicher Intelligenz größer sind, als die unsere“, sagt er. „Aber ich bin auch Optimist. Wenn wir frühzeitig über etwaige Probleme nachdenken, die entsprechenden Regularien finden und sie auch umsetzen, können wir auch verhindern, dass wir eine schädliche Superintelligenz schaffen.“

Die Debatte über KI verfolgt er schon lange. Es ist aber vor allem die Praxis der KI-Entwicklung, die ihn so optimistisch macht. „Alle, die sich mit KI beschäftigen, beginnen nun, dieselben Grundstrukturen zu verwenden. So kann man Sicherheitsmechanismen einbauen, auf die jede weitere KI aufbauen wird. Man wird nie verhindern können, dass destruktive Kräfte solche Sicherheitsmechanismen umgehen. Aber wenn man darüber nachdenkt, dass derzeit fast alle praktischen KIs als eine Art kombiniertes Open-Source-Projekt entstehen, ist das wirklich phänomenal. Ich habe so etwas noch nie erlebt. Weil alle das Allgemeinwohl in solchen Sicherheitsmechanismen erkennen. Und weil es für den hypothetischen Fall, dass es zu so etwas wie einer wild gewordenen KI kommt, die ihre Aufgabe um jeden Preis erfüllen will, in der Infrastruktur auch einen Wachhund gibt, der ihn wieder einfängt. “

Was bleibt im Winter 2018? Die Hoffnung, dass die Debatte über künstliche Intelligenz an einem Punkt beginnt, an dem Grundlagen geschaffen werden. Wenn höher entwickelte KIs in diesen Monaten aus den Laboren der Forschungsinstitute und Konzerne in den Alltag einfließen, schreiben die Entwickler und Ingenieure so etwas wie die DNS der zukü nftigen digitalen Gesellschaft. Genügend Ansätze gibt es.   Die wichtigsten Forscher, Wissenschaftler und Unternehmer dieser Welt trafen sich zum Beispiel im vergangenen Jahr im kalifornischen Asilomar, um einen Katalog ethischer Richtlinien zu verfassen. Diese „Asilomar Guidelines for AI“, diese Richtlinien für KI, sind nun so etwas wie ein philosophischer Quellcode für eine Technologie, die selbst die, die sie erschaffen haben, noch gar nicht einschätzen können. Erste Konzerne ziehen nach. Die deutsche Telekom hat ethische Richtlinien veröffentlicht. Amazon, Facebook, Google, IBM und Microsoft haben eine „Partnership on AI“ gegründet, der inzwischen gut siebzig Organisationen aus aller Welt angehören.

Die erste Phase der Digitalisierung mit ihren niedrigschwelligen KIs hat die Menschheit kalt erwischt. Der gegenwärtige „Teclash“, die wütenden Reaktionen gegen digitale Technologie, sind eine berechtigte Folge. Die Digitalisierung hat ganze Industrien zerstört, Kulturen ausgehöhlt, den öffentlichen Diskurs zersetzt und Millionen zu Mediensüchtigen gemacht. Das sind Fehler, aus denen die digitale Gesellschaft an der Schwelle zum nächsten Technologieschub lernen kann.

Sieht so aus, als täte sie genau das.

Kurzbiographie

Andrian Kreye,

geboren am 9. Oktober 1962, ist einer der beiden Ressortleiter des Feuilletons der Süddeutschen Zeitung. Er lebte viele Jahre in den USA und hat dort schon früh die Entwicklung der digitalen Welt von einer Subkultur zur Alltagstechnologie begleitet. Vor seiner Berufung zum Feuilletonleiter arbeitete er als Korrespondent der SZ in New York, als Reporter in Krisengebieten in Lateinamerika, Afrika, Asien und dem Nahen Osten, sowie als Fernseh- und Radiojournalist. Er war ständiger Mitarbeiter des FAZ Magazins und Mitglied der Gründungsredaktion der Zeitschrift Tempo. Als Autor veröffentlichte er zahlreiche Bücher. Zuletzt erschien von ihm „Macht euch die Maschinen untertan – vom Umgang mit künstlicher Intelligenz“ (Süddeutsche Zeitung Edition).