Wie ich meine ersten Schritte mit ChatGPT machte und was ich daraus lernte
ChatGPT hat das Potenzial für eine technologische Disruption. Aber welche Risken gibt es und wie können wir ihnen begegnen?
ChatGPT ist aktuell in aller Munde. Momentan ist es einer der großen Hypes, die die sozialen Medien beherrschen.
Seit Ende November 2022 ist die Künstliche Intelligenz in Form eines Chat-Programms der Öffentlichkeit zugänglich und neben der Euphorie gibt es auch viel Skepsis.¹
Lehrer machen sich Sorgen, dass Hausaufsätze zukünftig hinfällig werden, weil ChatGPT die Aufsätze für die Schüler schreiben könnte. Programmierer lassen ihren Programmcode teilweise von der Künstlichen Intelligenz schreiben und viele Antworten auf Stack Overflow wurden ebenfalls über das Chat-Programm generiert.
Das Weihnachtsvideo
Mein eigener erster direkter Berührungspunkt ist ein Weihnachtsvideo. Mitte Dezember wollen wir ein heiteres Video drehen, in welchem ich eine Weihnachtsgeschichte aus einem Buch vorlese.
Wir sind mit dem Auto unterwegs, während mein Kollege erwähnt: “Die Geschichte wurde mit einer textgenerativen Künstlichen Intelligenz erstellt.” Das macht mich nachdenklich. Vorher habe ich nur flüchtig von der Chat-Software gelesen. Jetzt habe ich das erste Mal direkt damit zu tun.
Wir drehen das Video und nachdem wir es später in der Firma zeigen, bekommt es positives Feedback. Die KI hat in diesem Fall nur den Text bereitgestellt und das meiste — also sprechen, filmen, schneiden — wurde noch von Menschenhand produziert. Aber wie wird sich das in Zukunft entwickeln?
Harari
Mir kommt der Autor Yuval Noah Harari in den Sinn. In seinen “21 Lektionen für das 21. Jahrhundert” schreibt er, dass KI über ganz spezifische Fähigkeiten verfügt, die der Mensch nicht besitzt. Das sind zum einen die Konnektivität und die Aktualisierbarkeit. Künstliche Intelligenz ist mit dem Internet verbunden und kann darüber permanent Updates erhalten.²
Harari spricht sogar von einem noch größeren Risiko. Wenn Biotechnologie und künstliche Intelligenz miteinander gekoppelt werden, dann könnte das dazu führen, dass sich die Menschheit aufsplittet in eine Klasse von Übermenschen und eine riesige Unterschicht nutzloser Homo sapiens.
Sollte eine Mehrheit der Menschen ihre ökonomische Bedeutung und ihre politische Macht verlieren, dann könnte der Staat den Anreiz verlieren, in ihre Gesundheit, Bildung und Wohlfahrt zu investieren. Das ist wirklich sehr riskant.
Der Beispiel-Dialog mit der Chat-KI
Nachdem Videodreh will ich es selbst ausprobieren. Ich erstelle mir einen Account für ChatGPT und schicke der KI die erste Frage.³
Do you speak german?
Die Antwort verblüfft mich tatsächlich ein wenig.
Yes, I am able to understand and generate text in German. How can I assist you today?
Ich war davon ausgegangen, dass das Chat-Programm erst einmal nur Englisch spricht.
Ok, dann also los. Kommen wir zu einer wirklich interessanten Frage.
Welche Risiken gibt es in Bezug auf künstliche Intelligenz und welche Rolle spielt Moral für KI? Wie wird sichergestellt, dass die KI moralisch korrekte Entscheidungen trifft?
Die Künstliche Intelligenz antwortet sehr umfangreich dazu:
Es gibt einige Risiken, die im Zusammenhang mit künstlicher Intelligenz bestehen, darunter:
1. Automatisierung von Entscheidungen: KI-Systeme können Entscheidungen treffen, ohne dass menschliche Eingriffe oder Kontrolle möglich sind. Dies kann zu Fehlern oder unerwünschten Ergebnissen führen.
2. Verlust von Arbeitsplätzen: KI kann bestimmte Arten von Arbeit automatisieren, was zu einem Verlust von Arbeitsplätzen führen kann.
3. Auswirkungen auf die Privatsphäre: KI-Systeme können große Mengen an Daten sammeln und verarbeiten, was Auswirkungen auf die Privatsphäre haben kann.
4. Gefahr der Kriegsführung: KI-Systeme können in der Kriegsführung eingesetzt werden, was zu unkontrollierbaren Folgen führen kann.
Moral spielt eine wichtige Rolle bei der Entwicklung und Anwendung von KI-Systemen. KI-Systeme müssen so entwickelt werden, dass sie moralisch vertretbare Entscheidungen treffen und die Rechte und Freiheiten von Menschen respektieren.
Um sicherzustellen, dass KI-Systeme moralisch korrekte Entscheidungen treffen, gibt es verschiedene Ansätze. Ein Ansatz ist die Verwendung von ethischen Regeln und Richtlinien, die in die KI-Systeme eingebettet werden. Ein anderer Ansatz ist die Verwendung von “Explainable AI” (erklärbare KI), bei der die Entscheidungen, die von einem KI-System getroffen werden, nachvollziehbar gemacht werden können, um sicherzustellen, dass sie moralisch vertretbar sind.
Die Antwort ist umfassend und gut strukturiert. Die Ausführungen zu moralischen Entscheidungen gehen mir aber noch nicht weit genug. Deshalb hake ich noch einmal nach.
Wie genau werden ethische Regeln und Richtlinien in KI-System eingebettet? Erkläre bitte anhand eines Beispiels.
Nach dieser Frage geht die Künstliche Intelligenz etwas weiter in die Tiefe und erklärt umfassender.
Es gibt verschiedene Möglichkeiten, ethische Regeln und Richtlinien in KI-Systeme einzubetten. Ein Ansatz ist die Verwendung von ethischen Algorithmen, die explizit darauf ausgelegt sind, moralische Entscheidungen zu treffen. Diese Algorithmen können auf verschiedene Weise implementiert werden, z.B. durch die Verwendung von Regeln, die auf bestimmten moralischen Prinzipien basieren, oder durch die Verwendung von künstlichen neuronalen Netzen, die auf moralischen Entscheidungen trainiert wurden.
Ein Beispiel für die Verwendung von ethischen Algorithmen in einem KI-System ist die Entwicklung eines autonomen Fahrzeugs, das in Notfällen moralisch korrekte Entscheidungen treffen soll. Ein solches System könnte mit Regeln programmiert werden, die besagen, dass das Fahrzeug immer versuchen soll, Unfälle zu vermeiden, und dass es im Falle eines Unfalls immer versuchen soll, die Anzahl der Verletzten so gering wie möglich zu halten. Diese Regeln könnten in Form von Algorithmen implementiert werden, die das Fahrzeug dazu veranlassen, bestimmte Aktionen auszuführen, wie zum Beispiel eine Notbremsung oder das Ausweichen, um einen Unfall zu vermeiden. Diese Algorithmen könnten auch mit künstlichen neuronalen Netzen trainiert werden, um die Entscheidungen des Fahrzeugs auf moralisch korrekte Weise anzupassen und zu optimieren.
Ein anderer Ansatz ist die Verwendung von Ethik-Boards oder Gremien, die die Entscheidungen und Aktivitäten von KI-Systemen überwachen und bewerten. Diese Gremien können aus Experten auf dem Gebiet der Ethik, Philosophie, Recht und anderen relevanten Bereichen bestehen und können dazu beitragen, sicherzustellen, dass die Entscheidungen von KI-Systemen im Einklang mit moralischen und ethischen Prinzipien stehen.
Es gibt auch Ansätze wie “Explainable AI” (erklärbare KI), bei dem die Entscheidungen, die von einem KI-System getroffen werden, so dargestellt werden, dass sie nachvollziehbar und verständlich sind. Dies kann dazu beitragen, dass die Entscheidungen der KI-Systeme transparenter und nachvollziehbarer sind und dass sie moralisch vertretbar sind.
Nach diesem Dialog bin ich in Gedanken. “Was wird hier die nächsten zwei bis fünf Jahre wohl auf uns zukommen?!” Das ist einfach krass. Wenn diese Technologie weiter verbessert wird, dann wird das so umfassende Veränderungen in unsere Gesellschaft bringen wie die Entwicklung des World Wide Webs und des Smartphones zusammen.
Erkenntnis
Für mich ist es sehr wahrscheinlich, dass wir hier gerade mitten in einer disruptiven Phase stehen. Vielleicht sogar am Anfang einer neuen Ära.
Bei mir löst das auf der einen Seite einen Schauer aus. Einen Schauer, weil gerade die Militärs diese Technologien intensiv erforschen. Auf der anderen Seite sind da aber auch das Kribbeln und die Begeisterung, welche positiven Entwicklungen damit möglich sein werden.
Letzteres wird aber nur möglich sein, wenn wir Künstliche Intelligenz auf moralisch gewinnbringende Weise einsetzen. Deshalb muss ich der KI noch eine letzte Frage in diesem Chat stellen.
Gibt es bereits solche Ethik-Boards? Wenn ja, von welchen Firmen werden sie eingesetzt?
Die Antwort beruhigt mich ein wenig:
Ja, es gibt bereits einige Unternehmen und Organisationen, die Ethik-Boards oder Gremien eingesetzt haben, um die Entscheidungen und Aktivitäten von KI-Systemen zu überwachen und zu bewerten.
In den nachfolgenden Ausführungen werden dann noch die Unternehmen Google, Microsoft, IBM und OpenAI aufgelistet.
Zusammenfassung
Beim Dreh für ein Weihnachtsvideo bin ich das erste Mal mit textgenerativer Künstlichen Intelligenz in Kontakt gekommen. Dabei habe ich gesehen, dass die KI ganz brauchbare Texte erstellen kann.
Wenn man über den Anwendungsfall als Chat hinaus denkt, dann sind die Einsatzzwecke sehr vielfältig. Doch die Nutzung birgt auch einige gravierende Risiken, wie den Einsatz beim Militär, Jobverluste und Datenschutzprobleme. Wenn Biotechnologie und künstliche Intelligenz aufeinandertreffen, dann können die Risiken sogar noch größer werden.
Es muss unbedingt sichergestellt werden, dass moralisches Entscheiden tief in den Algorithmen der Künstlichen Intelligenz verankert ist. Einige Unternehmen gehen bereits in diese Richtung und haben Ethik-Boards installiert. Bleibt zu hoffen, dass sich dies durchsetzt und möglichst politisch gefordert wird.
Literaturhinweise
[1] https://en.wikipedia.org/wiki/ChatGPT
[2] Harari, Y. N. (2020). 21 Lektionen für das 21. Jahrhundert (6. Aufl.). C.H. Beck.