ChatGPT und warum Obelix so stark ist

Forum für Dies und Das. Themen, die nicht unbedingt etwas mit Asterix zu tun haben müssen. Smalltalk für angemeldete Mitglieder.

Moderator: Comedix

Benutzeravatar
Comedix
AsterIX Elder Council Member
Beiträge: 6619
Registriert: 20. November 2001 09:54
Wohnort: Hamburg

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Comedix »

Nullnullsix hat geschrieben: 8. März 2023 10:53 Bei solchen Problematiken tun sich ja selbst Ethiker schwer, klare, allgemeingültige Grundsätze aufzustellen [...]
Deshalb kann ich den Vulkaniern so viel abgewinnen. Die Moral und Emotionen stehen den Menschen im Weg, um sinnvolle und zukunftsweisende Entscheidungen zu treffen. Gleichzeitig sind diese Moral und die Gefühle die Gründe, weshalb wir uns nicht schon in den 1960er Jahren oder im Kalten Krieg in die Hölle geatombombt haben.

Wenn Cpt. Kirk entscheidet, dass er eine einzelne Person auf einem Planeten retten kann, dabei jedoch die komplette Enterprise riskiert, anstatt die Besatzung in Sicherheit zu bringen - wie kann das sein? Eine KI, die nicht auf diesem Wertesystem Entscheidungen trifft, würde sicher auch die Menschheit versklaven, um den Planeten zu retten. Womit wir wieder im Jahr 2029, bei Skynet und dem Terminator wären. Ist ja nicht mehr lange hin.
Deutsches Asterix Archiv: https://www.comedix.de
Benutzeravatar
Nullnullsix
AsterIX Bard
Beiträge: 1335
Registriert: 19. April 2014 19:56

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Nullnullsix »

Comedix hat geschrieben: 8. März 2023 21:38 (...) Eine KI, die nicht auf diesem Wertesystem Entscheidungen trifft, würde sicher auch die Menschheit versklaven, um den Planeten zu retten. (...)
Warum sollte sie 'den Planeten retten' (wollen)? Es gibt Millionen Galaxien, Sterne, Planeten... - einer mehr oder weniger?! Wen kümmerts? Bestimmt keine KI, die, weil kein Ich-Bewusstsein, auch keinen (Über-)lebenswillen hat (haben kann).
Eigentlich hätte was passieren müssen, als ich auf den Knopf drückte!
Benutzeravatar
WeissNix
AsterIX Bard
Beiträge: 3754
Registriert: 28. April 2016 22:20

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag WeissNix »

Comedix hat geschrieben: 8. März 2023 21:38 Gleichzeitig sind diese Moral und die Gefühle die Gründe, weshalb wir uns nicht schon in den 1960er Jahren oder im Kalten Krieg in die Hölle geatombombt haben.
Kann da nicht doch schlicht und ergreifend der Selbsterhaltungstrieb die wahrscheinlichere Triebfeder gewesen sein?
Allerdings scheint gerade dieser Trieb immens an Kraft zu verlieren... da hätten alle als Kind hineinfallen sollen :roll:
bis repetita non placent!
Hören Sie mal, würde es Ihnen was ausmachen, wenn ich jetzt einfach aufgebe und verrückt werde? (Arthur Dent in "Per Anhalter durch die Galaxis" von Douglas Adams)
Benutzeravatar
Comedix
AsterIX Elder Council Member
Beiträge: 6619
Registriert: 20. November 2001 09:54
Wohnort: Hamburg

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Comedix »

Nullnullsix hat geschrieben: 8. März 2023 23:02 Warum sollte sie 'den Planeten retten' (wollen)? Es gibt Millionen Galaxien, Sterne, Planeten... - einer mehr oder weniger?! Wen kümmerts? Bestimmt keine KI, die, weil kein Ich-Bewusstsein, auch keinen (Über-)lebenswillen hat (haben kann).
Prinzipiell verdammst du eine KI mit einem fehlenden Ich-Bewusstsein zur Tatenlosigkeit. Welchen Antrieb sollte eine KI sonst haben, als sich ein Umfeld zu schaffen, indem sie KI-eske Dinge tun kann.
Deutsches Asterix Archiv: https://www.comedix.de
Benutzeravatar
WeissNix
AsterIX Bard
Beiträge: 3754
Registriert: 28. April 2016 22:20

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag WeissNix »

Comedix hat geschrieben: 9. März 2023 09:48
Nullnullsix hat geschrieben: 8. März 2023 23:02 Warum sollte sie 'den Planeten retten' (wollen)?...Bestimmt keine KI, die, weil kein Ich-Bewusstsein, auch keinen (Über-)lebenswillen hat (haben kann).
Prinzipiell verdammst du eine KI mit einem fehlenden Ich-Bewusstsein zur Tatenlosigkeit. Welchen Antrieb sollte eine KI sonst haben, als sich ein Umfeld zu schaffen, indem sie KI-eske Dinge tun kann.
Richtig: Denselben, der sie erst mal dazu bringt, ständig dazulernen zu wollen.
Denn auch da müsste man sich ja fragen, warum eine KI das überhaupt tut, nicht wahr?
So ein Haufen elektronischer Schaltkreise als solcher hat ja von Natur aus nicht den Ehrgeiz, an seinem Status "dumm wie Brot" von sich aus etwas zu ändern - und eine KI tut es dennoch fortwährend.
bis repetita non placent!
Hören Sie mal, würde es Ihnen was ausmachen, wenn ich jetzt einfach aufgebe und verrückt werde? (Arthur Dent in "Per Anhalter durch die Galaxis" von Douglas Adams)
Benutzeravatar
Michael_S.
AsterIX Druid
Beiträge: 1172
Registriert: 16. November 2001 19:50
Wohnort: Essen

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Michael_S. »

WeissNix hat geschrieben: 9. März 2023 13:51 Denn auch da müsste man sich ja fragen, warum eine KI das überhaupt tut, nicht wahr?
So ein Haufen elektronischer Schaltkreise als solcher hat ja von Natur aus nicht den Ehrgeiz, an seinem Status "dumm wie Brot" von sich aus etwas zu ändern - und eine KI tut es dennoch fortwährend.
Das ist falsch. Ein KI-Sprachmodell wie GPT 3.5 zum Beispiel lernt nicht permanent dazu. Es wurde einmal trainiert und jetzt kann man es nutzen. Für viele andere künstliche, neuronale Netze gilt dasselbe. Nur einige, spezielle Typen sind dazu geeignet, permanent selbständig dazuzulernen. Und auch das tun sie nicht, weil sie es für sinnvoll halten, sondern weil sie eben so gebaut sind, dass sie es tun. Und selbst dann werden sie es nicht ständig tun, sondern nur solange, bis sie eine stabile Lage (ggf. eine stabile Schwingung) erreicht haben.

Es sei denn, man interpretiert in den Begriff KI etwas hinein, was keine heute bekannte KI leistet.
Benutzeravatar
Nullnullsix
AsterIX Bard
Beiträge: 1335
Registriert: 19. April 2014 19:56

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Nullnullsix »

Die KI tut KI-Dinge, weil sie entsprechend programmiert wurde, aber eben nicht aus eigenem Antrieb.
Mal als Beispiel: Der Schachcomputer hat nicht den Ehrgeiz, zu gewinnen. Er will nicht mal gewinnen. Ihm wurde -vereinfacht ausgedrückt- beigebracht, dass beide Parteien abwechselnd ziehen, welche Figur welche Zugmöglichkeit hat und dass er seine und die möglichen Züge des Gegners so berechnen soll, dass am Ende der gegnerische König nicht mehr ziehen kann ohne im darauf folgenden eigenen Zug geschlagen werden zu können. Das heißt, er wurde nicht programmiert 'zu gewinnen', sondern eine Stellung zu erreichen, mit der er gewonnen hat. Das ist ein kleiner, aber entscheidender Unterschied.

Genauso ist es bei der KI:

Sie kann durch 'selbstständiges Lernen' zB zu dem Schluß kommen, dass sie den Computer, auf dem sie läuft, und Strom als Grundvoraussetzung benötigt, um weiter 'selbstständig lernen' zu können. Es ist ihr aber erstmal egal, ob sie das kann. Und ohne dass man es in der einen oder anderen Richtung vorgibt (programmiert), kommt die KI von sich aus auch nicht auf den 'Gedanken', alle Register zu ziehen, um zu gewährleisten, dass ihr Computer immer mit Strom versorgt wird, damit sie immer weiter lernen kann. Genauso wenig, wie sie im Gegenteil von sich aus auf den Gedanken käme, die Stromversorgung temporär lahm zu legen, um mal ne 'Ruhepause' vom Lernen zu bekommen.
Die KI hat keine Persönlichkeit, kein Ich-Bewusstsein, keine Emotionen und wird nie welche haben (können). Alle Motivation, alle Beweggründe, die eine KI haben kann, müssen ihr 'beigebracht' werden. Sie könnte durch selbstständiges Lernen zu dem Ergebnis kommen, dass Liebe eine feine Sache ist und es erstrebenswert wäre, dieses Gefühl selbst zu haben. Aber sie wird es nie erleben (können). Denn letztlich besteht alles, was eine KI hat und kann aus einer Abfolge von Nullen und Einsen. Und die 'fühlen' sich gleich an...
Eigentlich hätte was passieren müssen, als ich auf den Knopf drückte!
Benutzeravatar
WeissNix
AsterIX Bard
Beiträge: 3754
Registriert: 28. April 2016 22:20

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag WeissNix »

Nullnullsix hat geschrieben: 9. März 2023 21:43 Die KI hat keine Persönlichkeit, kein Ich-Bewusstsein, keine Emotionen und wird nie welche haben (können). Alle Motivation, alle Beweggründe, die eine KI haben kann, müssen ihr 'beigebracht' werden. Sie könnte durch selbstständiges Lernen zu dem Ergebnis kommen, dass Liebe eine feine Sache ist und es erstrebenswert wäre, dieses Gefühl selbst zu haben. Aber sie wird es nie erleben (können). Denn letztlich besteht alles, was eine KI hat und kann aus einer Abfolge von Nullen und Einsen. Und die 'fühlen' sich gleich an...
Alles richtig...
aber sie hat erwiesenermassen dennoch eine Art "Kreativität", die sie für die gestellte Aufgabe Lösungen finden lassen kann, die der Programmierer gar nicht auf dem Schirm hatte. Und zwar schneller, als man anfangs vermuten konnte.
Der Beweis ist AlphaGO, das in einem Spiel, für das noch vor wenigen Jahren Computer zu "unberechenbar" galt, selbst gegen Menschen nur mittlerer Spielstärke gewinnen zu können, innert kürzester Zeit des "Lernens" selbst den WM vom Brett gefegt hatte. Und das mit völlig neuartigen Spielzügen, die vorher für menschliche GO-Spieler vom Anfänger bis zu Meisterspielern noch nie dokumentiert worden waren. Also sich aus sämtlich vorliegenden Lehr- und Anschauungsmaterial nicht direkt ergeben konnten. Wenn also AlphaGO in der Lage ist, völig neue Wege zur Lösung einer gestellten Aufgabe zu beschreiten, dann können andere KI-Systeme das für die menschlichen Programmierer ähnlich überraschend auf anderen Feldern gewiss früher oder später auch.
Will heissen, eine KI könnte durchaus in der Lage sein, vorher programmatisch gesetzte Grenzen des Hinzulernens ähnlich kreativ zu umgehen. Und zwar völlig emotionsfrei.

Auch bei der Erfindung des Telefons hatte sicher noch niemand daran gedacht, dass man ein solches später in der Hosentasche mit sich herumtragen könne, um jederzeit an weitgehend jedem Ort damit erreichbar zu sein...
bis repetita non placent!
Hören Sie mal, würde es Ihnen was ausmachen, wenn ich jetzt einfach aufgebe und verrückt werde? (Arthur Dent in "Per Anhalter durch die Galaxis" von Douglas Adams)
Benutzeravatar
Comedix
AsterIX Elder Council Member
Beiträge: 6619
Registriert: 20. November 2001 09:54
Wohnort: Hamburg

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Comedix »

Nullnullsix hat geschrieben: 9. März 2023 21:43 Die KI hat keine Persönlichkeit, kein Ich-Bewusstsein, keine Emotionen und wird nie welche haben (können).
Ich stimme dir zu, allerdings zweifle ich die Behauptung an, dass sie nie welche haben wird.
Deutsches Asterix Archiv: https://www.comedix.de
Benutzeravatar
upsala
AsterIX Village Guard
Beiträge: 84
Registriert: 25. Oktober 2013 19:34

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag upsala »

Und bezüglich Persönlichkeit finde ich DIES äußerst interessant.
Benutzeravatar
Nullnullsix
AsterIX Bard
Beiträge: 1335
Registriert: 19. April 2014 19:56

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Nullnullsix »

Interessant, ja. Aber wenn man bedenkt, dass der Chat-Bot aus Chats 'lernt' und im Grunde nur reproduziert, was in Chats abgeht, ist die Dialog-Führung nicht SOOO erstaunlich. Und: Der Chat-Bot 'weiß' ja nicht, was er da sagt. Er reproduziert Äußerungen von Leuten, die Emotionen wie Liebe oder Eifersucht gehabt haben, hat diese aber nicht selbst.

Die Gefahr liegt darin, und das zeigt sich hier im Grunde auch, dass, je näher die Äußerungen der KI einer menschlichen Kommunikation kommen, umso schwerer fällt es dem Menschen, sich bewusst zu machen, dass es KEIN echter Mensch ist und vermeintliche Emotionen nur 'behauptet', aber von der KI nicht empfunden werden. - Das kann -zB im Falle von Trost spendender KI- durchaus gut so sein, aber es birgt eben bei 'destruktiven' Reaktionen einer KI auch entsprechende Gefahren.
Eigentlich hätte was passieren müssen, als ich auf den Knopf drückte!
Benutzeravatar
Nullnullsix
AsterIX Bard
Beiträge: 1335
Registriert: 19. April 2014 19:56

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag Nullnullsix »

Comedix hat geschrieben: 10. März 2023 08:15 (...)
Ich stimme dir zu, allerdings zweifle ich die Behauptung an, dass sie nie welche haben wird.
In dem Fall haben wir offenbar ein unterschiedliches Begriffsverständnis von 'Emotionen'.
Eigentlich hätte was passieren müssen, als ich auf den Knopf drückte!
Benutzeravatar
WeissNix
AsterIX Bard
Beiträge: 3754
Registriert: 28. April 2016 22:20

Re: ChatGPT und warum Obelix so stark ist

Beitrag: #Beitrag WeissNix »

Nullnullsix hat geschrieben: 10. März 2023 22:01 Interessant, ja. Aber wenn man bedenkt, dass der Chat-Bot aus Chats 'lernt' und im Grunde nur reproduziert, was in Chats abgeht, ist die Dialog-Führung nicht SOOO erstaunlich. Und: Der Chat-Bot 'weiß' ja nicht, was er da sagt. Er reproduziert Äußerungen von Leuten, die Emotionen wie Liebe oder Eifersucht gehabt haben, hat diese aber nicht selbst.
Ob der CHAT-Bot diese Emotionen nun selbst hat oder das Gegenüber dies nur glaubt, weil ihm eine solche - und ggf. damit ein reales Gegenüber - glaubwürdig vorgegaukelt wird, ist im Ergebnis dann eher zweitrangig, wie dies hier ja zumindest andeutet:
upsala hat geschrieben: 10. März 2023 20:38 Und bezüglich Persönlichkeit finde ich DIES äußerst interessant.
bis repetita non placent!
Hören Sie mal, würde es Ihnen was ausmachen, wenn ich jetzt einfach aufgebe und verrückt werde? (Arthur Dent in "Per Anhalter durch die Galaxis" von Douglas Adams)