ChatGPT: Verantwortung für kontraproduktives Verhalten der Maschine trägt der Mensch, 30.03.2023
zuletzt bearbeitet: Tue, 18 Apr 2023 17:33:46 +0200
nmoplus@realtime.fyi
Meiner Meinung nach gibt es keine wissenschaftliche Grundlage dafür zu behaupten, dass ChatGPT 'halluzinieren' kann. Es scheint, als würde diese Zuschreibung von vielen Wissenschaftsjournalist:innen einfach übernommen, ohne ausreichend zu prüfen, ob es wirklich zutreffend ist.
Artikel ansehen
Zusammenfassung ansehen
Systeme wie ChatGPT benötigen also sehr viel Kapital, doch die Annahme eine künstliche Intelligenz durch den Einsatz von statistischer KI zu erschaffen ist und bleibt zweifelhaft. Eine KI, die auf semantischem Verständnis basiert, würde mit weit weniger Rechenaufwand deutlich bessere Ergebnisse liefern. Wenn das gelingt, ist ChatGPT morgen tot.https://biblio.hypotheses.org/5284 "Wie funktioniert Künstliche Intelligenz? Ein Gespräch mit Ranga Yogeshwar über ChatGPT und die Folgen (1)", VON MICHAEL KNOCHE · VERÖFFENTLICHT 24. MÄRZ 2023 · AKTUALISIERT 27. MÄRZ 2023 [1]
Weil es mich interessiert, habe ich den ChatGPT-Orakel befragt.
> Befragung ChatGPT Anfang
question:
In einem Interview "Wie funktioniert Künstliche Intelligenz? Ein Gespräch mit Ranga Yogeshwar über ChatGPT und die Folgen" sagt Ranga Yogeshwar: " Eine KI, die auf semantischem Verständnis basiert, würde mit weit weniger Rechenaufwand deutlich bessere Ergebnisse liefern. Wenn das gelingt, ist ChatGPT morgen tot."
ChatGPT, wie ist der Stand der Technik, was sind die Hürden, was sind die Schwierigkeiten, die bei der Anwendung des semantischen Ansatzes zu überwinden sind, um Leistung, die mit der Leistung von ChatGPT vergleichbar ist, zu bringen?
ChatGPT-answer: Der semantische Ansatz basiert auf einer tieferen Analyse der Bedeutung von Texten und ist daher anspruchsvoller als der rein statistische Ansatz, der von ChatGPT verwendet wird. Eine semantische KI würde wahrscheinlich weniger Rechenaufwand erfordern, um bessere Ergebnisse zu erzielen, aber es gibt noch Hürden, die überwunden werden müssen. Eine Herausforderung besteht darin, die Komplexität der menschlichen Sprache vollständig zu erfassen, einschließlich der mehrdeutigen und kontextabhängigen Bedeutungen von Wörtern und Sätzen. Darüber hinaus erfordert die semantische Analyse eine umfangreiche Wissensbasis, auf der sie aufbauen kann, was eine große Menge an menschlichem Input und Validierung erfordert. Trotz dieser Herausforderungen gibt es bereits einige semantische Ansätze, die vielversprechend sind und viel Potenzial haben, die Leistung von ChatGPT zu übertreffen.Generiert von https://chat.openai.com/ am .03.2023
> Befragung ChatGPT Ende
Meine Prognose ist, dass ChatGPT & Co. dem Mensch im Anwendungskontext "Expertenwissen" überlegen sind, in den der Mensch dafür sorgt, dass die Sprachmodelle mit ausreichend Daten in einer guten Qualität trainiert werden. Meiner Meinung nach gibt es keine wissenschaftliche Grundlage dafür zu behaupten, dass ChatGPT "halluzinieren" kann. Es scheint, als würde diese Zuschreibung von vielen Wissenschaftsjournalisten einfach übernommen, ohne ausreichend zu prüfen, ob es wirklich zutreffend ist.
Ranga Yogeshwar ist studierter Experimentalphysiker und freiberuflicher Wissenschaftsjournalist. In seiner Arbeit hat er sich immer wieder mit künstlicher Intelligenz beschäftigt. Ich habe ich ihn gefragt, wie funktionieren Systeme wie ChatGPT? Sind sie wirklich „intelligent“? Was passiert, wenn sie großflächig zum Einsatz kommen? Was hätte das für Auswirkungen auf Bibliotheken? Das Gespräch erscheint in 4 Teilen.[1]
[...]
Ranga Yogeshwar: ChatGPT ist zunächst eine statistische KI. Hierbei werden Wörter nach rein statistischen Kriterien zusammengewürfelt. Bei der Bilderkennung hat das in der Vergangenheit sehr gut funktioniert, beim Textverständnis war dieses jedoch ein Problem, bis man sogenannte Transformer-Models einführte. 2019 kamen die ersten Aufsätze wie der hier vorliegende heraus Training language models to follow instructions with human feedback 1, und zwar mit einem Abstract, in dem es heißt: „Note, the abstract above was not written by the authors, it was generated by one of the models presented in this paper.“ Das fand ich sehr bemerkenswert, dass sich die Schlange jetzt in den Schwanz beißt. ChatGPT ist und bleibt jedoch ein Würfelspiel und fängt sogar an zu halluzinieren.
Unter Halluzination (von lateinisch alucinatio ‚Träumerei‘) versteht man eine Wahrnehmung, für die keine nachweisbare externe Reizgrundlage vorliegt. Solche Wahrnehmungen können in jedem Sinnesgebiet auftreten. Das bedeutet zum Beispiel, dass physikalisch nicht nachweisbare Objekte gesehen oder Stimmen gehört werden, ohne dass jemand spricht.https://de.wikipedia.org/wiki/Halluzination
Wenn ChatGPT oder eine andere KI irgendwelche Aussagen macht, dann existiert IMHO immer ein Reiz und zwar sind es die im Prompt an ChatGPT übermittelten Daten, die als Reiz zu bewerten sind. Deswegen ist m.E. die Benennung des Verhaltens der KI, die unzutreffende Aussagen macht, mit Halluzination nicht zulässig.
Die Maschinen halluzinieren nach Regeln, die vom Mensch definiert wurden ;-). Also halluziniert die KI bzw. das Sprachmodell stellvertretend für den/die Erfinderin des Modells. Wenn ein Auto in der Pampa im Kreise fährt, kommt doch niemand auf die Idee dem Auto die Fähigkeit "Halluzination" zuzuschreiben, weil es angeblich selbst eine nicht existierende bzw. sinnlose Route erfindet.
= Verantwortung für kontraproduktives Verhalten der Maschine trägt der Mensch =
Nicht die Maschine, sondern der oder die Urheberin des jeweiligen Models oder Algorithmus oder die User:innen, die diese Maschine einsetzen, sind dafür verantwortlich, dass die Maschine sich anders verhält, als erwartet - nach Ansicht mancher Mitmenschen "halluziniert". IMHO ist es wichtig, vom "Halluzination"-Begriff wegzukommen, weil der Begriff "halluziniert" hier schlicht und einfach irreführend ist. Durch die Verwendung des Begriffs "Halluzination":
- wird die Diskussion in die Irre geführt, entsachlicht
- wird der Maschine ein halluzinatorisches Verhalten zugeschrieben, obwohl dieses Verhalten nichts mit einer "Halluzination" im Sinne der Wikipedia-Definition hat
- durch die Verwendung der "Halluzination"-Fähigkeit bezogen auf die Maschine wird IMHO davon abgelenkt, dass die Verantwortung für kontraproduktives Verhalten der Maschine der Mensch trägt. Entweder der Entwickler des Sprachmodells oder der/die User:in, der/die ggf. bei der Entdeckung des kontraproduktiven Verhaltens die Zeit dafür verwendet, um über dieses Verhalten in den Medien zu berichten statt dafür zu sorgen, dass dieser konkreter Fehler behoben wird. Ich habe noch von keinem/-r "Halluzination"-Berichterstatter:in gelesen oder gehört, dass diese ihre Zeit in ein Feedback an das Sprachmodell investiert haben und dann dafür gesorgt haben, dass das kontraproduktive Verhalten in einem bestimmten Kontext korrigiert wurde.
die herablassende Haltung mancher Forum-Teilnehmer dem neuartigen Phänomen "Künstliche Intelligenz" gegenüber - s. dazu "ChatGPT goes Powershell" ist eine Sache. Man kann diese Haltung zum Teil auch nachvollziehen. Es gibt ja in der heutigen von "political corectness" geprägten Welt kaum Möglichkeit eigene Überlegenheit irgendwie geltend zu machen.https://administrator.de/forum/kuenstliche-intelligenz-hat-imho-respekt-verdient-6235658495.html
Was mir Sorgen bereitet, dass die Journalist:innen in der Berichterstattung in die gleiche von-oben-nach-unten Haltung abrutschen. Ein Paradebeispiel dafür ist m.E. dieser Artikel "ChatGPT ist lustig, aber Zeitverschwendung" - Inside IT [1] von Eva Wolfangel. Eva Wolfangel ist in [1] nicht nur als eine Journalistin, sondern als eine Kulturwissenschaftlerin präsentiert.
und
Tech-Scharlatane und US-Senatoren verbreiten jetzt Fehlinformationen über prädiktive KI-Tools, die nicht empfindungsfähig sind.Übersetzt mit https://www.deepl.com/translator, zitiert von https://www.vice.com/en/article/ak3zbp/for-the-love-of-god-ai-chatbots-cant-decide-to-do-anything, Fetthervorhebung ist von mir, @neue medienordnung plus
[...]
Auch wenn es Spaß macht, sich das vorzustellen, die Idee von Sprachmodellen als aufstrebende superintelligente KI kommt den Unternehmen zugute, die sie entwickeln. Wenn große Teile der Öffentlichkeit glauben, dass wir kurz vor der Geburt fortschrittlicher maschineller Intelligenz stehen, polstert der Hype nicht nur das Endergebnis von Unternehmen wie Google und OpenAI auf, sondern hilft ihnen auch, die Verantwortung für die daraus resultierenden Vorurteile und Schäden zu vermeiden .
Besser passt IMHO
Die Maschine IRRT sich.
Und zwar irrt sich die Maschine stellvertretend für den/die Erfinderin des Modells bzw. für die User:innen, die im Prompt die Maschine mit irreführenden Daten versorgt haben.Wichtig dabei ist die Bedeutung, die Rolle des Prompts beim Einsatz von ChatGPT zu verstehen:
> Befragung ChatGPT Anfang
question: Ich bitte um eine verständliche Erklärung für den Begriff "Prompt" für die Teilnehmer eines Volkshochschule-Kurses "Funktionsweise und die Handhabung von ChatGPT ".
ChatGPT-answer: In Bezug auf ChatGPT bezieht sich "Prompt" auf den Ausgangspunkt oder die Auslöser, die einem Sprachmodell gegeben werden, um eine bestimmte Art von Text zu generieren. In diesem Kontext können "Prompts" als Startpunkte für Gespräche oder Antworten auf Fragen dienen.
Wenn Sie einen Volkshochschulkurs besuchen, der sich mit der Funktionsweise und Handhabung von ChatGPT beschäftigt, können "Prompts" als Beispieltexte oder Fragestellungen dienen, die Ihnen helfen sollen, mit dem Sprachmodell zu interagieren und es zu verstehen. Ein Beispiel für einen "Prompt" könnte sein: "Bitte generieren Sie einen kurzen Text, der die Vorteile von künstlicher Intelligenz für die Medizin beschreibt." Durch die Verwendung von "Prompts" können Sie lernen, wie ChatGPT funktioniert und wie Sie es für bestimmte Aufgaben einsetzen können.
> Befragung ChatGPT Ende
Generiert von https://chat.openai.com/ am 30.03.2023
Die oben zitierte Definition erklärt sehr präzise, dass ein Prompt für das Sprachmodell ein Ausgangspunkt, ein Auslöser, ein Reiz ist. Die vom Sprachmodell generierten Inhalte sind davon abhängig, was im Prompt enthalten ist. Angesichts der Tatsache, dass ChatGPT auf der Grundlage von Prompts arbeitet, kann die These, dass es halluziniert, nicht als wissenschaftlich fundiert angesehen werden.
Einige Irrtümer und Vorurteile gegenüber dem Phänomen "Künstliche Intelligenz" (KI) können abgemildert oder beseitigt werden, wenn man ein besseres Verständnis für die Funktionsweise der KI zugrunde liegenden Neuronalen Netze versteht.
Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre.https://de.m.wikipedia.org/wiki/Neuronales_Netz#Lernen [2]
Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster erlernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht einem Logiksystem, sondern einer (in gewissem Sinne intuitiven) Musterverarbeitung folgen; s. a. Künstliche Intelligenz. Dies bedeutet weiterhin, dass vor dem Lernen nicht erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.
Dies bedeutet wiederum nicht, dass logisches Verhalten und präzise Regeln nicht von neuronalen Netzen erlernt bzw. angewendet werden könnten. Nur müssen diese durch Training ggf. mühsam erarbeitet werden; etwa beim Erlernen der Grammatik einer Sprache über Jahre hinweg. Neuronale Netze lernen nicht explizit, sondern implizit: Die Grammatik der Muttersprache wird von einem Kleinkind zuerst implizit erlernt. Als Schulkind erlernt es die Regeln dann im Allgemeinen – noch einmal – explizit, über Regeln.
= Quellenverzeichnis =
[1] https://biblio.hypotheses.org/5284 "Wie funktioniert Künstliche Intelligenz? Ein Gespräch mit Ranga Yogeshwar über ChatGPT und die Folgen (1)", VON MICHAEL KNOCHE · VERÖFFENTLICHT 24. MÄRZ 2023 · AKTUALISIERT 27. MÄRZ 2023
[2] Neuronales_Netz#Lernen - https://de.m.wikipedia.org/wiki/Neuronales_Netz#Lernen
#Halluzination #halluzinieren #ChatGPThalluziniert #kontraproduktivesVerhalten #Qualitätssicherung #Wissenschaftsjournalistinnen #Wissenschaftsjournalist #Wissenschaftsjournalistin #FeedbackButton #Feedback #ChatGPTDiary #chatGPT #JanusRose #TechScharlatane #RangaYogeshwar #EvaWolfangel #TechScharlatane #Prompt #ChatGPTPrompt #PromptChatGPT #PromptEngineering #MICHAELKNOCHE
Konversationsmerkmale
Lädt...