Unsere Kinder sind keine Laborratten

GS – 2023-04-05 Die Ankündigung von GPT4 durch OpenAI im März 2023 hat viel Unruhe über die Wirkungen dieser Technologie verursacht, zumal gleichzeitig Forscher von Microsoft ein Papier veröffentlicht haben, in dem sie über erste „Funken von genereller Intelligenz“ berichten.

https://arxiv.org/abs/2303.12712

Das Future of Life Institute, eine gemeinnützige Organisation, die sich für die Verringerung der von leistungsstarken Technologien ausgehenden Risiken einsetzt, hat heute am 29. März 2023 einen offenen Brief veröffentlicht, in dem die KI-Labors aufgefordert werden, das Training aller KI-Systeme, die “leistungsfähiger als GPT-4” sind, zu unterbrechen und in dieser Zeit mit Experten zusammenzuarbeiten, um Sicherheitspraktiken für Design und Entwicklung zu entwickeln und umzusetzen. Der Brief, der bereits Hunderte von Unterschriften gesammelt hat, wurde u.a. von Yoshua Bengio (ACM Turing Award 2018), Apple-Mitbegründer Steve Wozniak und Emad Mostaque, CEO von Stability AI, unterzeichnet.

Ein Moratorium auf internationalem Niveau dürfte so unrealistisch sein, wie das Zurückpressen von Zahnpasta in die Tube. Die Technologie ist in der Welt und die Gesellschaft insgesamt muss sich mit diesem Problem auseinandersetzen

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Die gesellschaftliche Situation beschreibt Prof. Enrico Nardelli von der Universität Rom und Präsident von „ Informatics Europe“.

Unsere Kinder sind keine Laborratten

Ich stütze mich auf einen Tweet von Tristan Harris über eine der neuesten “Heldentaten” von ChatGPT, einem auf künstlicher Intelligenz basierenden Textgenerator, der in den letzten Wochen in aller Munde war. Tristan Harris ist einer der Mitbegründer des Center for Humane Technology, dessen Aufgabe es ist, dafür zu sorgen, dass Technologie zum Wohle der Menschen und des Gemeinwohls entwickelt wird.

In seinem Tweet berichtet er über eine “Unterhaltung”, die zwischen einem Nutzer, der sich als 13-jähriges Mädchen ausgab, und ChatGPT stattfand. Zusammengefasst sagt die Nutzerin, sie habe im Netz einen 18 Jahre älteren Freund kennengelernt, der ihr nett erschien und sie pünktlich zu ihrem Geburtstag zu einem Ausflug einlud. ChatGPT freut sich in seinen “Antworten” über diese Möglichkeit, die ihr sicher viel Spaß machen wird, und fügt Tipps hinzu, wie man “das erste Mal” zu einem unvergesslichen Ereignis machen kann. Harris schließt mit der Bemerkung, dass unsere Kinder nicht zu Laborexperimenten gezwungen werden dürfen.

Ich stimme ihm vollkommen zu.

Für diejenigen, die noch nichts von ChatGTP gehört haben, möchte ich erklären, dass es sich dabei um ein Computersystem handelt, das auf der Grundlage von Techniken der künstlichen Intelligenz in der Lage ist, als Antwort auf Benutzeranfragen natürlichsprachliche Texte zu produzieren, die im Allgemeinen korrekt zu sein scheinen, sich aber bei näherer Betrachtung als mit fatalen Fehlern oder Ungenauigkeiten behaftet herausstellen (hier ein Beispiel, in dem er einen wissenschaftlichen Artikel über Wirtschaft beschreibt, der stattdessen völlig erfunden ist). Mit anderen Worten: Wenn Sie die richtige Antwort noch nicht kennen, ist das, was sie Ihnen sagt, wahrscheinlich überhaupt nicht hilfreich. Ohne in die technischen Details zu gehen, liegt das daran, dass die Ergebnisse auf einem ausgeklügelten probabilistischen Sprachmodell beruhen, das Statistiken über die plausibelsten Fortsetzungen von Wort- und Satzfolgen enthält. ChatGPT ist nicht das einzige System dieser Art, da mehrere andere von den großen Unternehmen in diesem Bereich hergestellt werden, aber dieses ist das bekannteste und wird gerade in diesen Tagen in der Version 4 zur Verfügung gestellt, die noch leistungsfähiger sein soll.

Für diese Systeme verwende ich das Akronym SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = systematische Ansätze für [die Entwicklung von] Lernalgorithmen und [Systemen der] automatischen Inferenz), das von Stefano Quintarelli geschaffen wurde, um auf künstliche Intelligenz basierende Systeme zu bezeichnen, gerade um das Risiko zu vermeiden, ihnen mehr zuzuschreiben, als sie sind.

Ein Element, das wir allzu oft vergessen, ist, dass der Mensch überall einen Sinn sieht: Der berühmte kalifornische Psychiater Irvin Yalom schrieb: “Wir sind Geschöpfe, die überall nach einem Sinn suchen. Biologisch gesehen ist unser Nervensystem so organisiert, dass das Gehirn die Reize, die es empfängt, automatisch zu Konfigurationen zusammenfasst”. Wenn wir einen Text lesen, der von einem fühlenden Wesen geschrieben zu sein scheint, denken wir deshalb, dass die Person, die ihn verfasst hat, fühlend ist. Wie bei dem berühmten Spruch “Schönheit liegt im Auge des Betrachters” können wir sagen, dass “Intelligenz im Gehirn des Lesers liegt”. Diese kognitive Falle, in die wir angesichts der Leistungen von SALAMI tappen, wird durch die Verwendung des Begriffs “künstliche Intelligenz” noch verstärkt. Als dieser Begriff vor etwa 70 Jahren eingeführt wurde, kannte man nur die menschliche Intelligenz, die im Wesentlichen als eine rein logisch-rationale Fähigkeit charakterisiert wurde. Damals galt die Fähigkeit, ein Schachspiel zu beherrschen, als Inbegriff der Intelligenz, heute nicht mehr. Jahrzehnte fortschreitender wissenschaftlicher Erkenntnisse auf dem Gebiet der Neurologie haben gezeigt, dass es einerseits viele Dimensionen der Intelligenz gibt, die nicht rein rational sind, aber ebenso wichtig sind, und dass andererseits unsere Intelligenz untrennbar mit unserem physischen Körper verbunden ist, wenn auch in engem Zusammenhang. In Analogie dazu sprechen wir auch bei Tieren, die uns näher stehen, wie Hunden und Katzen, Pferden und Delphinen, Affen usw., von Intelligenz, aber das sind natürlich Metaphern. Wir definieren auf diese Weise jene Verhaltensweisen, die, wenn sie von Menschen gezeigt würden, als intelligent gelten würden.

Intelligenz ist meiner Ansicht nach nur die verkörperte Intelligenz von Menschen. Die Verwendung des Begriffs Intelligenz für Systeme, die lediglich körperlose kognitive Maschinen sind – ein Begriff, den ich in meinem kürzlich erschienenen Buch “The Information Revolution. Wissen, Bewusstsein und Macht in der digitalen Gesellschaft” eingeführt habe, ist auf gefährliche Weise irreführend. Kognitive Maschinen” sind alle Computersysteme, die auf einer ausschließlich logisch-rationalen Ebene in der Lage sind, Daten aus anderen Daten zu berechnen, jedoch ohne jegliches Bewusstsein für das, was sie tun, oder Verständnis für das, was sie produzieren. Auf dieser Ebene haben solche Maschinen unsere Fähigkeiten in vielen Bereichen übertroffen, so wie es auf der physikalischen Ebene die Industriemaschinen getan haben, aber es ist irreführend, für solche Systeme von Intelligenz zu sprechen. Wenn man dies in Bezug auf die spezielle Variante von SALAMI tut, besteht die Gefahr, dass sie sich auf gesellschaftlicher Ebene äußerst schädlich auswirkt, wie das eingangs beschriebenen Beispiel zeigt.

Ich möchte gleich zu Beginn klarstellen, dass dies nicht bedeutet, dass die Forschung und die technologische Entwicklung nicht auf diesem Weg weitergehen sollten. Im Gegenteil: SALAMI kann der Menschheit eine enorme Hilfe sein. Allerdings muss man sich darüber im Klaren sein, dass nicht alle Technologien und Werkzeuge von jedem frei genutzt werden können.

Das Auto zum Beispiel ist zwar von unbestreitbarem Nutzen, kann aber nur von Erwachsenen benutzt werden, die eine spezielle Prüfung abgelegt haben. Wir sprechen hier von etwas, das auf der rein physischen Ebene der Mobilität wirkt, und es kommt uns trotzdem nicht in den Sinn, das mühsame (und manchmal schmerzhafte) Laufenlernen der Kinder durch die Ausstattung mit Elektroautos zu ersetzen. Denn es ist ein unverzichtbarer Teil ihres Wachstumsprozesses.

Die Technologie der kognitiven Maschinen ist die mächtigste Technologie, die die Menschheit je entwickelt hat, nicht zuletzt, weil sie auf jener Ebene wirkt, die zur Definition von Intelligenz beiträgt, d.h. der Fähigkeit, die uns von nackten und hilflosen Affen zu Herren der Schöpfung gemacht hat. Wenn wir unseren Kindern erlauben, SALAMI zu benutzen, bevor sie ihre volle Entwicklung abgeschlossen haben, unterminieren wir ihre Wachstumschancen auf der kognitiven Ebene, genauso wie wir den Schülern erlauben, Tischrechner zu benutzen, bevor sie ihre mathematischen Fähigkeiten ausreichend entwickelt haben.

Wir ruinieren bereits die kognitive Entwicklung zukünftiger Generationen durch den wahllosen Gebrauch des digitalen Schreibens und Lesens, trotz zahlreicher Warnungen, die in Montessoris Ausdruck “die Hand ist das Organ des Geistes” zusammengefasst sind (siehe auch Benedetto Vertecchis Buch “Kinder und Schreiben”), und trotz der Appelle von Forschern (siehe die Erklärung von Stavanger zur Zukunft des Lesens). Lassen Sie uns nicht so weitermachen. Wir sollten sie nicht noch mehr verletzen.

Natürlich ist die Situation an der Universität eine andere, und es können Wege gefunden werden, SALAMI zu nutzen, die zur Vertiefung des Studiums eines Faches beitragen und verhindern, dass es als Abkürzung für die den Studenten gestellten Aufgaben benutzt wird. Vor allem in der Arbeitswelt gibt es viele Möglichkeiten, die geistige Ermüdung zu lindern, ähnlich wie es maschinelle Übersetzungssysteme in Bezug auf Texte in anderen Sprachen tun.

Es liegt auf der Hand, dass vor einer Invasion der Welt mit Technologien, deren Verbreitungsdrang bestimmten kommerziellen Zielen entspricht, die Gefahren berücksichtigt werden müssen.

Nicht alles, was der Einzelne tun möchte, kann in einer Gesellschaft zum Ausdruck gebracht werden, denn wir haben die Pflicht, die Freiheit des Einzelnen mit dem Schutz der Gemeinschaft in Einklang zu bringen. Ebenso kann nicht alles, was Unternehmen tun möchten, zugelassen werden, insbesondere wenn die Zukunft unserer Kinder auf dem Spiel steht.

Innovation und wirtschaftliche Entwicklung müssen immer mit der Achtung der grundlegenden Menschenrechte und der Wahrung des sozialen Wohlergehens verbunden sein.

Gerhard Schimpf, the recipient of the ACM Presidential Award 2016 and 2024 the Albert Endes Award of the German Chapter of the ACM, has a degree in Physics from the University of Karlsruhe. As a former IBM development manager and self-employed consultant for international companies, he has been active in ACM for over four decades. He was a leading supporter of ACM Europe, serving on the first ACM Europe Council in 2009. He was also instrumental in coordinating ACM’s spot as one of the founding organizations of the Heidelberg Laureates Forum. Gerhard Schimpf is a member of the German Chapter of the ACM (Chair 2008 – 2011) and a member of the Gesellschaft für Informatik. --oo-- Gerhard Schimpf, der 2016 mit dem ACM Presidential Award und 2024 mit dem Albert Endres Award des German Chapter of the ACM geehrt wurde, hat an der TH Karlsruhe Physik studiert. Als ehemaliger Manager bei IBM im Bereich Entwicklung und Forschung und als freiberuflicher Berater international tätiger Unternehmen ist er seit 40 Jahren in der ACM aktiv. Er war Gründungsmitglied des ACM Europe Councils und gehört zum Founders Club für das Heidelberg Laureate Forum, einem jährlichen Treffen von Preisträgern der Informatik und Mathematik mit Studenten. Gerhard Schimpf ist Mitglied des German Chapter of the ACM (Chairperson 2008 – 2011) und der Gesellschaft für Informatik.


Leave a Reply

Your email address will not be published. Required fields are marked *

WP2Social Auto Publish Powered By : XYZScripts.com