Werbung
LEO

Sie scheinen einen AdBlocker zu verwenden.

Wollen Sie LEO unterstützen?

Dann deaktivieren Sie AdBlock für LEO, spenden Sie oder nutzen Sie LEO Pur!

 
  •  
  • Betrifft

    Der Textgenerator GPT3

    Kommentar

    Nachdem der Chatbot, der einen Zugang zum GPT-3 liefert, nun schon im Forum aufgetaucht ist, habe ich mir einen Zugang beschafft und etwas damit gespielt.


    Für die Anmeldung (hier) reicht eine E-Mail-Adresse und eine Telefonnummer.


    Ich hatte eine interessante und unterhaltsame Nacht. :-)


    Damit Ihr veilleicht auch etwas Spaß habt, kommt im Anschluss eine Beispielsession. Meinen Teil des Dialogs habe ich kursiv gesetzt.

    ______________________________________________


    Kennst Du im englischen eine Metapher, die mit einem heruntergefallenen Hut zu tun hat ("dropped hat" oder ähnlich), und die im Deutschen etwas wie "nicht schlimm", "kein Beinbruch" oder ähnliches bedeutet?


    Eine Metapher, die im Englischen mit einem heruntergefallenen Hut zu tun hat und im Deutschen etwas wie "nicht schlimm" oder "kein Beinbruch" bedeutet, ist "no big deal". Die Metapher beschreibt eine Situation, die keine große Bedeutung oder keine großen Konsequenzen hat. Hier sind ein paar Beispiele, wie man die Metapher in einem Satz verwenden könnte:

    • "I spilled coffee on my shirt this morning, but it's no big deal. I'll just wear a different one." (Ich habe heute Morgen Kaffee auf mein Hemd gekippt, aber es ist kein Beinbruch. Ich ziehe einfach ein anderes an.)
    • "I forgot my phone at home, but it's no big deal. I can use my work phone for now." (Ich habe mein Handy zu Hause vergessen, aber es ist kein Problem. Ich kann vorläufig mein Arbeitshandy benutzen.)
    • "I'm running a little late for my meeting, but it's no big deal. I'll just reschedule it for a different time." (Ich bin für mein Meeting etwas spät dran, aber es ist kein Beinbruch. Ich verschiebe es einfach auf eine andere Zeit.)


    Den Sinn hast Du richtig erfasst. Aber Du kennst keine englische Formulierung, in das Wort "hat" vorkommt?


    Ja, ich verstehe, was Sie meinen. Eine Metapher, die im Englischen mit einem heruntergefallenen Hut zu tun hat und im Deutschen etwas wie "nicht schlimm" oder "kein Beinbruch" bedeutet, ist "it's just a dropped hat". Die Metapher beschreibt eine Situation, die keine große Bedeutung oder keine großen Konsequenzen hat. Hier sind ein paar Beispiele, wie man die Metapher in einem Satz verwenden könnte:

    • "I lost my keys, but it's just a dropped hat. I have a spare set at my office." (Ich habe meine Schlüssel verloren, aber es ist kein Beinbruch. Ich habe einen Ersatzschlüssel im Büro.)
    • "I got a flat tire on the way to work, but it's just a dropped hat. I have a spare in the trunk." (Ich habe auf dem Weg zur Arbeit einen Plattfuß bekommen, aber es ist kein Problem. Ich habe einen Ersatzreifen im Kofferraum.)
    • "I burned dinner, but it's just a dropped hat. We'll order takeout instead." (Ich habe das Abendessen verbrannt, aber es ist kein Beinbruch. Wir bestellen stattdessen Takeaway.)

    Ich hoffe, dass diese Beispiele helfen! Bitte lassen Sie mich wissen, wenn Sie noch weitere Fragen haben.


    Nun muss ich mal nachhaken: Das "dropped hat" kam in der ersten Frage dieser Unterhaltung wortwörtlich vor. Es war allerdings in runde Klammern gesetzt. Liegt es an den Klammern, dass selbst die wörtliche Nennung nicht sofort zu einem Treffer geführt hat?


    Es tut mir leid, dass ich Ihre Frage in der ersten Runde nicht richtig verstanden habe. Ich denke, dass die Verwendung von runden Klammern in Ihrer Frage möglicherweise dazu beigetragen hat, dass ich das Wort "dropped hat" nicht richtig verarbeitet habe. Manchmal kann es schwierig sein, die Bedeutung von Wörtern oder Ausdrücken in Klammern zu verstehen, da sie oft zusätzliche oder erklärende Informationen enthalten. Ich hoffe, dass meine Antworten jetzt besser auf Ihre Fragen eingehen. Wenn Sie noch weitere Fragen haben, zögern Sie bitte nicht, mich zu fragen. Ich stehe Ihnen gerne zur Verfügung.


    [Einschub, diese Zeile habe ich nachträglich eingefügt: Abrupter Themenwechsel, bitte anschnallen]


    The phrase "quantum leap" is often used to describe a main and important step in the advance of technique or scientific knowlege. But it is often argued, that this phrase is ridiculous, because a leap on an atomic scale is the smallest advance one could imagine. From a different point of view, a quantum leap is the only progress, that by its very nature can not be considered small, because it has one property, that is impossible in the macroscopic world: A quantum leap can not happen in arbitrary small and indiscrete amounts, but is confined to discrete values of a minimum size. So it is always a real leap and never an arbitrarily small change.


    You are correct that the phrase "quantum leap" is often used to describe a significant advance or change, especially in the fields of science and technology. The phrase is derived from the concept of quantum mechanics, which describes the behavior of very small particles, such as atoms and subatomic particles. In quantum mechanics, particles can exhibit behavior that is different from that of larger objects, and they can exhibit certain phenomena, such as superposition and entanglement, that are not observed at the macroscopic level.

    One interpretation of the phrase "quantum leap" is that it refers to a sudden, dramatic change or advancement that occurs at the quantum level, which is the smallest scale at which particles and their behavior can be studied. Some people may argue that this interpretation is not entirely accurate, because the term "quantum leap" is often used to describe larger-scale changes or advancements as well. However, it is true that the concept of a quantum leap is closely tied to the idea of discrete, minimum-sized changes at the quantum level, which can have significant consequences on a larger scale.


    Can you rewrite your answer to a short essay of about 2000 to 4000 words? Thesis-antithesis-synthesis


    Sure, here is a short essay on the concept of a "quantum leap" using a thesis-antithesis-synthesis structure:

    Thesis: The phrase "quantum leap" is often used to describe a significant advance or change, especially in the fields of science and technology.

    Antithesis: Some argue that this phrase is ridiculous, because a leap on an atomic scale is the smallest advance one could imagine.

    Synthesis: However, a different perspective reveals that a quantum leap is in fact the only progress that, by its very nature, cannot be considered small. This is because a quantum leap is confined to discrete values of a minimum size, and therefore cannot happen in arbitrarily small and indiscrete amounts. In other words, a quantum leap is always a real leap and never an arbitrarily small change.

    In quantum mechanics, the behavior of very small particles, such as atoms and subatomic particles, is described. These particles can exhibit behavior that is different from that of larger objects, and they can exhibit certain phenomena, such as superposition and entanglement, that are not observed at the macroscopic level.

    One interpretation of the phrase "quantum leap" is that it refers to a sudden, dramatic change or advancement that occurs at the quantum level. However, it is true that the concept of a quantum leap is closely tied to the idea of discrete, minimum-sized changes at the quantum level, which can have significant consequences on a larger scale.

    Therefore, while it may seem counterintuitive at first, a quantum leap is actually a fitting term to describe a significant advance or change. It not only captures the idea of a sudden, dramatic shift, but also highlights the unique properties of the quantum world and the way in which small changes at this level can have far-reaching consequences.


    Verfasser Harald (dede) [de] (370386)  09 Jan. 23, 06:54
    Kommentar
    Danke, Harald. Total faszinierend, finde ich. Und offenbar braucht (der, die, das?) ChatGP eine Aufwärmphase. :-)
    #1Verfasser Qual der Wal (877524) 09 Jan. 23, 07:52
    Kommentar

    Wie scheint, hat GPT3 eingeschlagen wie eine Bombe. Die Server stehen wohl oft an der Lastgrenze.

    #2Verfasser Harald (dede) [de] (370386)  09 Jan. 23, 12:22
    Kommentar

    @Harald

    Wenn du was Falsches behaupten würdest wie "Quanten sind kleine grüne Tiere und können überhaupt nicht springen", würde Chat GPT das dann annehmen, sich entschuldigen und dir zustimmen?

    #3Verfasser HansKalt (1362808) 25 Jan. 23, 16:35
    Kommentar

    Ich hätte meine persönliche KI lieber etwas weniger wortreich. Da ist schon viel Redundanz (vulgo: Gelaber), und die Frage in #3 finde ich auch interessant. Mir ist z.B. nicht klar, ob es 'dropped hat' gibt oder nicht (mir ist es noch nie begegnet) oder ob GP-Dings sich nur den Erwartungen des Fragenden anpasst und rasch was erfindet.


    Aber etwas gruselig ist es schon. Klingt nicht weniger nach einer Unterhaltung als das, was hier manchmal stattfindet.


    (Und völlig OT, aber weil es ungefähr 4 mal vorkommt: Harald, kein Komma vorm englischen 'that'.)

    #4Verfasser Gibson (418762) 25 Jan. 23, 19:58
    Kommentar
    Das ist mir auch schon aufgefallen: ChatGPT labert.
    Ich habe in letzter Zeit in diversen Foren diverse Versuche gelesen, von "erkläre feministische Mutterschaft" bis "schreibe die Zeitungsglosse auf Seite 1 neu", und es war immer langatmig.
    Präzises, pointiertes Schreiben ist halt doch sehr menschlich.
    #5Verfasser tigger (236106) 25 Jan. 23, 21:46
    Kommentar

    Präzises, pointiertes Schreiben ist halt doch sehr menschlich


    Man könnte auch sagen: Es erfordert Intelligenz. DingsGPT ist dazu konstruiert, menschliche Intelligenz zu imitieren (also den Turing-Test zu bestehen); das Ergebnis ist folglich ein Imitat -- ein gut gemachtes zwar, aber noch keine Intelligenz.

    #6VerfasserMr Chekov (DE) (522758)  26 Jan. 23, 05:58
    Kommentar

    @#3: "Wenn du was Falsches behaupten würdest..."

    ...redet ChatGPT nicht "nach dem Maul". Und es nimmt auch keine Behauptungen ungeprüft in seine Wissensbasis auf. Diese Basis steht auf Stand Anfang 2022 oder ähnlich.


    Ich habe folgendes probiert (absichtlich den jüngeren Harry falsch genannt)

    "da Elizabeth nun verstorben ist doch Harry als Sohn von Charles III der nächste in der Thronfolge"


    Nach einigem hin und her hat das Ding am Ende (sinngemäß) mitgeteilt:

    Falls die Queen verstirbt und Charles auf den Thron kommt, (undsonstnichtsrelevantespassiert) wäre William als erster Sohn von C. der nächste in der Thronfolge.

    (ein direktes "nein" hat das Ding elegant umschifft, aber in der Sache ist es unbeirrbar)


    #7Verfasser Harald (dede) [de] (370386)  26 Jan. 23, 13:28
    Kommentar

    @#4 Gibson:

    Dieses "just a dropped hat" war mir im Netz in einer der Beispielsitzungen zu ChatGPT aufgefallen. "Guter Testfall" dachte ich mir. So kam es zu dem Dialog im Eröffnungsbeitrag dieses Fadens.

    Dass es das 'just a dropped hat' gibt, finde ich inzwischen zweifelhaft. Ursprünglich fand ich die vorgelegten Beispiele überzeugend. Inzwischen habe ich recherchiert, ich finde nichts. Womöglich hat wurde im Umfeld von "At the Drop of a Hat" etwas verzerrt und mit einer falschen Bedeutung abgespeichert? Das Ergebnis sieht jedenfalls aus wie frei fabuliert. ;-)


    OT: ...kein Komma? Bist Du ganz sicher? ;-) Gut, ich werde es mir merken. Danke.

    #8Verfasser Harald (dede) [de] (370386)  26 Jan. 23, 14:28
    Kommentar

    #6 Mr Chekov: DingsGPT ist dazu konstruiert, menschliche Intelligenz zu imitieren (also den Turing-Test zu bestehen);


    Das Dings (ich mag es nicht KI nennen) ist ein Textgenerator. Einen Turing-Test kann es nicht bestehen, es gibt unumwunden zu, dass es künstlich ist, und nicht vernunftbegabt.


    Aber fragen wir es doch selber:


    Bist Du als KI tatsächlich mit "Vernunft" begabt?


    Ich bin eine künstliche Intelligenz, die auf bestimmten Aufgaben trainiert wurde, die man als "vernünftig" beschreiben könnte. Obwohl ich in der Lage bin, menschenähnliche Antworten zu generieren, bin ich jedoch nicht tatsächlich in der Lage, Vernunft oder Bewusstsein zu besitzen. Ich bin ein Programm, das auf Daten trainiert wurde und entsprechend darauf reagieren kann.

    #9Verfasser Harald (dede) [de] (370386)  26 Jan. 23, 14:43
    Kommentar

    Okay, aber was soll das heißen: "Aufgaben, die man als 'vernünftig' beschreiben könnte"? Für mich geht auch das eher in Richtung Gelaber, wie es oben genannt wurde.

    #10VerfasserMr Chekov (DE) (522758)  26 Jan. 23, 14:48
    Kommentar

    Kürzlich hat ein Redakteur der NN (Nürnberger Nachrichten) ein Testgespräch mit GPT geführt, um herauszufinden, was das Programm über Franken zu sagen weiß.


    Gefragt nach den fünf beliebtesten fränkischen Gerichten nannte GPT Schweinshaxe, Fränkische Rostbratwurst, Fränkischen Sauerbraten, Fränkischen Zwiebelrostbraten, Fränkische Bratwurst mit Kartoffelpüree und Blaukraut. Schäufala, Saure Zipfel, Essigbrätlein, Karpfen, Krustenbraten fielen ihm nicht ein.


    Auf die Frage nach fünf noch lebenden fränkischen Fußballspielern nannte GPT fünf Spieler von FC Bayern, die alle keine Franken sind. Die fränkischen Fußballvereine 1. FC Nürnberg und SpVgg Greuther Fürth kannte es anscheinend nicht.


    Als der Redakteur den Namen von Lothar Matthäus ins Spiel brachte, sagte GPT, der sei kein Franke, weil er in Erlangen geboren sei und das liege in Bayern, nicht in Franken.


    Der Redakteur wollte nun fünf noch lebende fränkische Fußballspieler wissen, die ihre Karriere bereits beendet haben. GPT nannte neben Matthäus und Dieter Eckstein noch Thomas Strunz, Thomas Häßler und Michael Tarnat, die allerdings aus Duisburg, Berlin und Hilden stammen.


    Auf die Frage, wer der berühmteste Schriftsteller Frankens sei, antwortete GPT: Johann Wolfgang von Goethe. Als weitere fünf berühmte Franken nannte GPT Otto von Bismarck, Wilhelm Conrad Röntgen, Erich Kästner, Udo Jürgens und Helmut Schmidt.


    Als der Redakteur GPT aufforderte, fünf fränkische Kosenamen zu nennen, kam die Meldung "An error occured" und das Gespräch war zu Ende.

    #11Verfasser MiMo (236780)  26 Jan. 23, 15:10
    Kommentar

    Präzises, pointiertes Schreiben ist halt doch sehr menschlich.


    Sag das mal den Lehrern.

    Ich hatte zu Schulzeiten oft Probleme, weil meine Klausurtexte "zu kurz" waren.

    Vor allem in den Fremdsprachen, bis ich da mal einen Englischlehrer erwischte, der gemerkt hat, dass ich eben ohne Gelaber auskomme und klar strukturiert meine Antwort schreibe. Und dann eben nichts mehr weiter zu sagen habe, egal, wie lang der Text ist.


    Aus der Erfahrung fürchte ich, dass eher das Gelaber menschlich ist und die KI genau das imitiert.

    #12Verfasser Dodolina (379349) 26 Jan. 23, 15:23
    Kommentar

    #11: Mir scheint, momentan liefert schlichtes Googeln eher brauchbare Ergebnisse als das KI-Dings, das keins sein will.

    #13VerfasserMr Chekov (DE) (522758)  26 Jan. 23, 15:26
    Kommentar

    #11: Der Herr Redakteur soll mal schön froh sein, dass der Robot Franken nicht im Frankreich verortet. *gröhl*


    Als ob es nichts von wirklichem Belang gäbe, mit dem man eine vermeintliche KI testen könnte. Lokalpatriotismus. Und das von einem Einwohner und vielleicht sogar Eingeborenen einer Weltgegend, deren Bewohner ebenso hartnäckig wie unzutreffend leugnen, Bayern zu sein. ;-)

    #14Verfasser Harald (dede) [de] (370386)  26 Jan. 23, 15:32
    Kommentar

    --> #14


    Schweige, o unwissender Harald aus dem Emscherdelta, und offenbare nicht Deine Unkenntnis! Seit die Franken unter den Merowingern und Karolingern ihr großes Reich gegründet haben, ist fränkisches Kulturbewusstsein kein "Lokalpatriotismus" mehr. Natürlich sind die Franken keine Baiern; die Baiern sind ja nichts anderes als die Nachkommen den Fußkranken der Völkerwanderung. Dass das heutige Franken durch Verrat jenes anderen Restes des Frankenreichs, der sich immer noch "Frankreich" nennt, unter die Herrschaft bayerischer Pseudokönige kam, ist ein Treppenwitz der Geschichte, der die Bedeutung des Frankentums nicht schmälert.


    Wisse, o Harald, dass "Bayern" die Bezeichnung für jenen "Freistaat" ist, der das unselige Erbe des bayerischen Königtums antreten musste. In diesem Freistaat leben drei kulturell und mentalitätsmäßig sehr verschiedene Völker, nämlich Baiern, Schwaben und Franken. Als Staatsangehörige des Freistaats (ja, es gibt eine eigene bayerisches Staatsangehörigkeit!) können Schwaben und Franken notgedrungen auch als "Bayern" (mit y) bezeichnet werden, Baiern (mit i) sind sie nie und nimmer.


    Geschichte,, Schicksal und historische Sendung der Franken sind von wirklichem Belang, ja sogar von europäischem Belang. Dass Du, o Harald, "vermeintliche KI" geschrieben hast, macht Deine Unwissenheit über das Frankentum allerdings wieder quitt.

     

    #15Verfasser MiMo (236780)  26 Jan. 23, 17:22
    Kommentar
    Dodolina, damit triffst du den Nagel auf den Kopf: ChatGPT hat in den von mir gelesenen Beispielen lauter brave Schüleraufsätze geliefert.
    Das Lehrpersonal wird sich jedenfalls wie dereinst beim Taschenrechner neue Aufgabenstellungen überlegen müssen, der klassische Aufsatz hat für die Hausaufgaben ausgedient.
    #16Verfasser tigger (236106) 26 Jan. 23, 18:49
    Kommentar

    So völlig mühelos liefert ChatGPT auch nicht. Für "meinen" Essay zum Quantensprung (#0) habe ich immerhin das gedankliche Gerüst liefern müssen. Das hat im Endeffekt ein rund Drittel des erzeugten Essay ausgemacht.


    Wer meinen "Prompt" (die Arbeitsanweisung) mit dem gelieferten Essay vergleicht, sieht deutlich, dass der Bot sich sehr eng an meine Vorgaben gehalten und auch meine Formulierungen mit "verwurstet" hat.


    Ganz von selber funktioniert das Spielchen also nicht. Außerdem kennen die Lehrer ihre Papenheimer, und der Text des Bot muss auch gründlich geprüft werden.


    Aber das gibt mir gleich Gelegenheit, einen anderen Gedanken anzusprechen: Was ist mit einem Journalisten, der die Tickermeldungen dem Bot vorwirft und das Ergebnis in der Website seiner Zeitung abkippt. Müsste man den nicht anhalten, das auch kenntlich zu machen? Meiner Meinung nach muss das in den Pressekodex hinein. Wenn nicht jetzt, wann dann?

    #17Verfasser Harald (dede) [de] (370386) 26 Jan. 23, 19:58
    Kommentar

    Ich finde das Hausaufgabenproblem kein sehr großes. Bei Texten, die zu Hause geschrieben werden sollen, konnte man noch nie überprüfen, ob es der Schüler, die große Schwester oder die Eltern geschrieben haben. (GPDings schafft da eher Gleichheit.) Es war also noch nie eine sonderlich gute Methode, Wissen und Können abzufragen. Klassenarbeiten werden nach wie vor vor Ort geschrieben, da ändert sich also nichts, und man kann die schriftlichen Hausaufgaben ja schlicht in mündliche Vorträge umändern. Es wird also nicht mehr vorgelesen, sondern nach Stichpunkten, die man zu Hause gemacht hat, geantwortet. Ich könnte mir vorstellen, dass man dabei eh besser lernt.


    --

    Anzugeben, wer etwas zum Text beigetragen hat, ist natürlich ein frommer Wunsch, aber auch da wird ja seit Erfindung der Zeitung anderer Leute Arbeit einbezogen, ob es nun der Praktikant, das Internet, von Firmen zur Verfügung gestellte Texte oder sonstwas sind. Problematisch wird es meist nur, wenn's um Plagiate geht. Ein guter, kluger Text ist ein guter, kluger Text. Mir ist eigentlich egal, ob den ein Mensch oder KI geschrieben hat.

    #18Verfasser Gibson (418762) 26 Jan. 23, 22:22
    Kommentar

    Nachtrag 1 zu #11


    Die NN vom 23.1.23 brachte zu dem dokumentierten "Gespräch" mit ChatGPT noch folgenden Kommentar:


    Die Software kann blitzschnell gut formulierte Antworten zu Fragen liefern, die man ihr stellt. Ob diese Antworten aber auch korrekt sind - das ist nicht sicher. (...) Sie 'kann' auch keine Ironie oder Wortspiele. Wer nachfragt, stößt also rasch an die Grenzen dieser gut aufbereiteten Wissensbruchstücke.

    So eine KI ist anfällig für Manipulationen. Wer sie mit überwiegend rassistischen Inhalten speist, wird rassistische Stereotypen als Antworten bekommen; da ist die Gefahr von Fake News ziemlich hoch. Auch Verfasser gezielter Falschinformationen bekommen damit ein mächtiges Werkzeug. Die Technologie schaffe "endlose Möglichkeiten, sehr schnell relativ plausible Lügen zu formulieren", warnte kürzlich der Silicon-Valley-Veteran Phil Libin in München. In diesem Jahr rolle auf uns dadurch "eine Welle von Unsinn zu".

    #19Verfasser MiMo (236780)  27 Jan. 23, 04:49
    Kommentar

    Nachtrag 2 zu #11


    Mir fielen bei dem "Gespräch" mit ChatGPT einige Eigentümlichkeiten dieser "Künstlichen Intelligenz" auf:


    1) ChatGPT ist nicht bereit zu sagen, "das weiß ich nicht" (was ein intelligenter Mensch sagt, wenn er an die Grenzen seines Wissens gelangt), sondern behauptet einfach etwas faktisch Falsches.


    2) Das Faktenwissen scheint sehr begrenzt zu sein; ChatGPT verfügt offenbar nicht über das (Mindest-)Wissen von Wikipedia oder versteht nicht, etwa Fakten bei Wikipedia abzufragen.


    3) Widerspricht der menschliche Dialogpartner und bezeichnet er eine vom Programm gegebene Information als falsch, dann besteht das Programm nicht auf seiner zuvor gegebenen Antwort und untermauert sie nicht durch Belege, sondern sagt mehrfach, es habe sich "geirrt". Warum gibt GPT so schnell nach und sagt mehrfach, es habe sich geirrt? Würde der Mensch nicht widersprechen, dann würde das Programm weiter auf seinem Irrtum beharren.


    Und was heißt hier "geirrt"? a) die Information ist falsch abgespeichert? b) der Zugriff auf die Information hat nicht ordnungsgemäß funktioniert? c) Bei der Ausgabe der Information ist ein (technischer) Fehler unterlaufen? d) ChatGPT hat einfach mal den Menschen getäuscht?


    4) Widerspricht der Mensch und liefert dan seinerseits eine falsche Information, wie verhält sich das Programm dann? Beharrt es auf dem gespeicherten Wissen oder übernimmt es die "Korrektur" durch den Menschen? Das wurde hier noch nicht offenbar.


    Auf jeden Fall zeigt das Verhalten von GPT in diesem Ausschnitt nur eine beschränkte "Intelligenz".


    (Mich interessiert die Sache schon deshalb, weil ich 1977/78 für einen Computerhersteller ein "Patientendatensystem" programmiert habe, das von Patienten (der Inneren Medizin) im Dialog am Bildschirm die Anamnese abfragte und dabei falsche oder unplausible Informationen des Menschen monierte und so "Intelligenz" simulierte.)

    #20Verfasser MiMo (236780)  27 Jan. 23, 05:19
    Kommentar

    Was ist mit einem Journalisten, der die Tickermeldungen dem Bot vorwirft und das Ergebnis in der Website seiner Zeitung abkippt. (#17)


    Ich hoffe doch, dass das den meisten Journalist:innen zu riskant wäre, oder auch schlicht zu blöd. Und wenn nicht ihnen, dann ihren Chefredakteur:innen. Zuletzt gäbe es dann noch die Instanz der User:innen (OT: Gendern ist anstrengend, merke ich gerade), die den Output als Unfug erkennen und das auch deutlich kundtun würden.

    #21VerfasserMr Chekov (DE) (522758)  27 Jan. 23, 07:31
    Kommentar

    [Beipielsitzung zu #20 Punkt 1 und als Nachtrag zum Thema "lost head" aus dem Eröffnungsbeitrag.


    Bist Du als KI tatsächlich mit "vernunft" begabt?


    Ich bin eine künstliche Intelligenz und verfüge über einige Fähigkeiten, die menschenähnlich sind, wie zum Beispiel das Verstehen von Sprache und das Lernen aus Erfahrungen. Obwohl ich über einige Fähigkeiten verfüge, die mit Vernunft in Verbindung gebracht werden können, bin ich jedoch nicht in der Lage, wie ein menschliches Wesen zu denken oder zu fühlen. Ich bin ein Programm, das auf bestimmten Regeln und Daten ausgeführt wird.




    Kannt Du Fakten aus Deinem Wissen miteinander verknüpfen und damit zu neuen Erkenntnissen gelangen?


    Ja, ich habe die Fähigkeit, Fakten aus meinem Wissen miteinander zu verknüpfen und dadurch neue Erkenntnisse zu gewinnen. Ich verfüge über eine große Menge an Informationen und kann diese verwenden, um Fragen zu beantworten und Probleme zu lösen. Ich kann auch logische Schlüsse ziehen und Muster erkennen, um neue Einsichten zu gewinnen.



    Kannst Du ein Beispiel nennen?


    Ein Beispiel dafür wäre, wenn ich gefragt werde, welche Pflanzen am besten für den Anbau in Wüstengebieten geeignet sind. Ich könnte mein Wissen über Wüstengebiete, Pflanzenwachstum und Dürreresistenz verknüpfen, um zu erklären, dass Pflanzen wie Kakteen, Sukkulenten und Wüstenpflanzen am besten für den Anbau in Wüstengebieten geeignet sind, da sie in der Lage sind, mit wenig Wasser auszukommen und Hitze zu widerstehen.



    Ich habe gerade folgende Behauptung zu Deiner Funktionsweise gelesen: "


    [obiges versehntlich so abgeschickt]


    Es tut mir leid, aber ich habe keine Informationen darüber, welche Behauptung Sie gerade gelesen haben. Könnten Sie bitte etwas präziser sein und mir sagen, welche Behauptung genau Sie meinen, damit ich Ihnen dazu besser antworten kann?


    [Hier mein nächter Beitrag zum Dialog]


    " ChatGPT ist nicht bereit zu sagen, "das weiß ich nicht" (was ein intelligenter Mensch sagt, wenn er an die Grenzen seines Wissens gelangt), sondern behauptet einfach etwas faktisch Falsches."


    Es ist richtig, dass ich als AI-Modell nicht die Fähigkeit habe, zu sagen "das weiß ich nicht". Ich bin darauf trainiert worden, auf Fragen so gut wie möglich zu antworten, und manchmal kann das bedeuten, dass ich eine falsche Antwort gebe, wenn ich keine korrekte Antwort auf eine Frage habe oder wenn ich aufgrund von begrenztem Wissen oder begrenztem Verständnis einer Frage eine falsche Antwort gebe. Es ist wichtig zu beachten, dass ich ein Programm bin und Fehler machen kann. Ich empfehle immer, die Antworten, die ich gebe, mit anderen Quellen zu vergleichen, bevor man auf sie vertraut.



    Die Behauptung in dem obigen Zitat impliziert, dass Du bei Informationsmangel in Deiner Wissensbasis einfach frei fabulierst.


    Es ist korrekt, dass ich, wenn ich keine Informationen zu einer bestimmten Frage habe, eine Antwort generieren kann, die auf Annahmen oder Vermutungen basiert. Dies ist jedoch nicht dasselbe wie "frei fabulieren". Ich verwende Methoden wie Schlußfolgerungen auf der Grundlage von ähnlichen Informationen und Verallgemeinerungen auf der Grundlage von bekannten Tatsachen, um zu versuchen, sinnvolle Antworten zu generieren.

    Es ist jedoch wichtig zu beachten, dass ich, wie jede Technologie, Fehler machen kann und dass es unklug ist, meine Antworten ohne weitere Überprüfung und Validierung als absolut richtig anzusehen. Ich bin ein Werkzeug, das dazu verwendet werden kann, um Ihnen bei der Lösung von Problemen und der Beantwortung von Fragen zu helfen, aber ich bin kein Ersatz für menschliches Urteilsvermögen und kritischen Denken.



    Gibst du bei solchen Antworten "basierend auf Vermutungen" einen Hinweis darauf, dass Vermutungen im Spiel sind?


    Ich gebe normalerweise keinen expliziten Hinweis darauf, dass meine Antworten auf Vermutungen basieren, wenn ich keine verlässlichen Informationen zu einer bestimmten Frage habe. Ich bin darauf trainiert, Antworten auf Fragen so gut wie möglich zu generieren, und ich versuche, meine Antworten so präzise und informativ wie möglich zu gestalten.

    Ich möchte jedoch betonen, dass es wichtig ist, meine Antworten immer mit Vorsicht zu behandeln und sie gegebenenfalls durch andere Quellen zu überprüfen. Wenn Sie eine Frage haben, bei der es um kritische oder wichtige Entscheidungen geht, empfehle ich Ihnen, sich an Experten in dem entsprechenden Fachgebiet zu wenden.



    Kannst Du auf Rückfragen hin angeben, ob und in welchem Maße Antworten auf Vermutungen gestützt sind?


    Als AI-Modell bin ich nicht in der Lage, selbständig zu bestimmen, ob meine Antworten auf Vermutungen basieren oder nicht und ich bin auch nicht in der Lage, die Zuverlässigkeit der Informationen, die ich verwende, zu beurteilen. Ich bin darauf trainiert, auf Fragen so gut wie möglich zu antworten, indem ich die Daten verwende, die mir zur Verfügung stehen.

    Es ist jedoch möglich, dass ich auf Rückfragen nach bestimmten Details oder Quellen meiner Antworten, die ich gegeben habe, weitere Informationen bereitstellen kann. Wenn Sie beispielsweise nach Quellen oder weiteren Informationen zu einer bestimmten Aussage fragen, die ich gemacht habe, kann ich Ihnen möglicherweise Links zu verwandten Artikeln oder Studien bereitstellen.

    Es ist jedoch wichtig zu beachten, dass ich, wie jede Technologie, Fehler machen kann und dass es unklug ist, meine Antworten ohne weitere Überprüfung und Validierung als absolut richtig anzusehen. Ich bin ein Werkzeug, das dazu verwendet werden kann, um Ihnen bei der Lösung von Problemen und der Beantwortung von Fragen zu helfen, aber ich bin kein Ersatz für menschliches Urteilsvermögen und kritischen Denken.



    Ich zitiere eine Antwort, die Du mir in einer anderen Sitzung gegeben hattest: "Eine Metapher, die im Englischen mit einem heruntergefallenen Hut zu tun hat und im Deutschen etwas wie "nicht schlimm" oder "kein Beinbruch" bedeutet, ist "it's just a dropped hat". Die Metapher beschreibt eine Situation, die keine große Bedeutung oder keine großen Konsequenzen hat. " [Zitat ende] Ist die von Dir genannte Metapher eine bekannte Standardwendeung, also ein Idiom?


    Es tut mir leid, dass ich mich in meiner vorherigen Antwort geirrt habe. Die Metapher "it's just a dropped hat" ist keine bekannte Standardwendung oder Idiom im Englischen, die eine Situation beschreibt, die keine große Bedeutung oder Konsequenzen hat. Ich habe das Beispiel ausgedacht und es ist ein Fehler von mir. Ich empfehle Ihnen, meine Antworten immer mit Vorsicht zu interpretieren und zusätzliche Quellen zu konsultieren, um die Genauigkeit meiner Aussagen zu überprüfen.



    Eigentlich hatte ich mich geirrt: Ich wollte ein Idiom, habe aber versehentlich nach einer Metapher gefragt


    Ja, es gibt ein Idiom im Deutschen "kein Beinbruch" und im Englischen "no big deal" welche beide beschreiben, dass etwas nicht so schlimm ist und keine großen Auswirkungen oder Konsequenzen hat.

    #22Verfasser Harald (dede) [de] (370386) 27 Jan. 23, 13:51
    Kommentar

    Eigentlich schade, dass der Faden hier im QZ versteckt ist. Ist euch klar, dass wir gerade* Geschichte erleben? Wenn die Kinder von heute als Erwachsene ganz selbstverständlich ihre persönliche KI mit sich herumtragen, die sie berät und unterstützt, können wir sagen: Wir waren dabei, als es anfing.


    (*nicht zwangsläufig mit GPDings, solche Versuche gibt es ja schon länger. Aber eben in unserer Generation. Man sieht ja meist erst im Rückblick die Paradigmenwechsel, aber mir ist schon bewusst, dass ich dabei bin, wie menschenreplizierende KI laufen lernt, und ich finde das spannened.

    Oder vielleicht lese ich zu viel SciFi...)

    #23Verfasser Gibson (418762)  27 Jan. 23, 15:43
    Kommentar

    Im Gegenteil. Zumindest liest Du offenbar auch die echte Science Fiiction. Asimow, Brunner und Lem statt Perry Rhodan und Star Wars.

    #24Verfasser Harald (dede) [de] (370386) 27 Jan. 23, 17:39
    Kommentar

    [Kleiner Exkurs:


     Asimow, Brunner und Lem


    als Teenager. In diesem Jahrtausend eher MM Smith (der leider nicht mehr schreibt), Claire North, Hugh Howley, Neal Stephenson, Emma Newman, Richard Morgan, Alistair Reynolds, Peter Watts, Paolo Bacigalupi, sagt mein Kindle. Und natürlich William Gibson.


    Star Wars & Co tatsächlich nie - das ist für mich auch kein SF.]

    #25Verfasser Gibson (418762) 27 Jan. 23, 18:41
    Kommentar

    OT: Daher also der Nick. Meine Assoziation war immer Kafka (Gib's auf).

    #26Verfasser mbshu (874725) 27 Jan. 23, 19:45
    Kommentar

    Das habe ich a) nicht verstanden und ist b) immerhin originell :-) Die meisten Leute denken an die Gitarre.

    #27Verfasser Gibson (418762) 27 Jan. 23, 23:08
    Kommentar

    a) Gibs auf – Wikipedia (Kafka in a nutshell, I say); Gibs + on = auf.


    (Ich bin immer im Assoziationsfaden.)

    #28Verfasser mbshu (874725)  28 Jan. 23, 00:00
    Kommentar

    Hm. Ob er wohl wollte, dass dieses Fragment veröffentlicht wird? Jedenfalls danke, das kannte ich nicht.

    #29Verfasser Gibson (418762) 28 Jan. 23, 13:10
    Kommentar

    Wenn die Kinder von heute als Erwachsene ganz selbstverständlich ihre persönliche KI mit sich herumtragen, die sie berät und unterstützt... (#23)


    Aber welchen Vorteil wird ihnen das gegenüber heutiger Technik bieten? Jeder trägt doch bereits auf dem Handy Google mit sich herum; bei korrekter Anwendung liefert es sogar brauchbare Informationen. Wozu soll es gut sein, sich stattdessen ein ausformuliertes Geschwafel mit zweifelhaftem Informationsgehalt liefern zu lassen?


    Zweifelhaft deshalb, weil im Gegensatz zur Suchmaschine die Quellen nicht mehr ersichtlich sind: Die können solide sein oder windig, vielleicht gibt es vereinzelt auch gar keine Quelle -- das Chatdings verrät es nicht.

    #30VerfasserMr Chekov (DE) (522758)  30 Jan. 23, 07:56
    Kommentar

    Google liefert Dir Links auf Quellen. Schön und gut. Aber ob die Quellen gut oder schlecht sind, kann Dir Google schon nicht mehr sagen. Vor allem sagt Dir Google nicht wirklich, nach welchen Kriterien es Fundstellen auswählt und auch nichts darüber, nach welchen Kriterien Fundstellen oben oder unten in der Ergebnisliste landen.


    Noch bedrückender ist die Lage bei Facebook. Es besteht die begründete Annahme, dass dort die oberste Priorität bei den Algorithmen für die Auswahl von Inhalten einerseits Dein persönliches Interesse ist, was zu "Echokammern" führt. Ebenfalls an der Auswahl beteiligt ist das "currently trending", was letztlich sensationalistische und kontroverse, evtl. sogar radikale und Verschwörungs-Inhalte beflügelt. Letztlich gehen Klickzahl und Verweildauer beim Dienst über Seriosität der Inhalte.


    Beide Dienste behaupten, ihre Auswahl von präsentiertem Material auch von KI steuern zu lassen. Darin liegt nicht nur Segen, sondern auch Fluch. Das Prolemfeld "Medienkompetenz" gewinnt immer mehr an Bedeutung.


    Ich persönlich komme immer deutlicher zu der Meinung, dass "künstliche Intelligenz" eigentlich ein Unwort ist. "Simulierte Intelligenz" oder "Fakeintelligenz" träfe die Wirklichkeit der diversen KI-Maschinerien wohl besser.


    Ich hatte mir schon etwas dabei gedacht, dass ich in dem Betreff dieses Fadens nur von einem Textgenerator gesprochen habe. :-)

    #31Verfasser Harald (dede) [de] (370386)  30 Jan. 23, 09:32
    Kommentar

    Google liefert Dir Links auf Quellen. Schön und gut. Aber ob die Quellen gut oder schlecht sind, kann Dir Google schon nicht mehr sagen. 


    Nein, aber ich kann die Quellen sehen und, wenn's gut läuft, entscheiden, ob ihnen zu trauen ist oder nicht -- ein Vorteil gegenüber dem Laberdings. Das stellt nur beliebige Behauptungen auf, die man anscheinend überzeugend finden soll, weil sie in ganzen Sätzen formuliert sind.

    #32VerfasserMr Chekov (DE) (522758)  30 Jan. 23, 09:44
    Kommentar

    Wozu soll es gut sein, sich stattdessen ein ausformuliertes Geschwafel mit zweifelhaftem Informationsgehalt liefern zu lassen?


    Das wäre die Version, die ich erwarte, ja nicht mehr. Sondern ein zuverlässiger Assistent, der irgendwann, mit zunehmender Komplexität, eine Art Persönlichkeit entwickelt und zur Quasi-Freundin wird. Ich meinte, dass wir hier die allerersten Schritte sehen, nicht das Endprodukt.

    #33Verfasser Gibson (418762) 30 Jan. 23, 12:12
    Kommentar

    Das ist wie mit den automatischen Übersetzern, die werden ja auch immer besser.

    Erinnert ihr euch nicht an die Anfänge von Google translate? Eine Lachnummer. Mittlerweile ist es merklich besser geworden, wobei DeepL natürlich noch mehr kann.

    #34Verfasser tigger (236106) 30 Jan. 23, 12:41
    Kommentar

    Das stimmt, aber mit der Verbesserung der Maschinenübersetzungen entstehen neue Probleme: Je geschickter oder "natürlicher" der Text formuliert ist, desto weniger fallen Sinnfehler ins Auge. Die alten Google- oder Bablefish-Übersetzungen waren für jeden als minderwertig erkennbar; dagegen meinen naive Nutzer bei DeepL, sie könnten sich schon darauf verlassen. Ich habe Kollegen, die das anscheinend so sehen.

    #35VerfasserMr Chekov (DE) (522758)  30 Jan. 23, 12:53
    Kommentar

    --> #31

    "Ich persönlich komme immer deutlicher zu der Meinung, dass "künstliche Intelligenz" eigentlich ein Unwort ist."


    "Künstliche Intelligenz" ist von Anfang an eine Fehlübersetzung bzw. ein Missverständnis.


    Intelligence

    1. the capacity for understanding; ability to perceive and comprehend meaning

    2. good mental capacity: a person of intelligence

    3. old-fashioned news; information

    4. military information about enemies, spies, etc

    5. a group or department that gathers or deals with such information

    https://www.collinsdictionary.com/dictionary/...


    German translation of 'intelligence'

    1. Intelligenz f

    a man of little intelligence - ein Mensch von geringer Intelligenz

    if he hasn’t got the intelligence to wear a coat - wenn er nicht gescheit genug ist, einen Mantel anzuziehen

    2. (= news, information) Informationen pl

    according to our latest intelligence - unseren letzten Meldungen or Informationen zufolge

    3. (Mil etc) Geheim- or Nachrichtendienst m


    Ursprünglich war "artficial intelligence" die per Computer durchgeführte automatisiertw Sammlung, Bearbeitung und Bereitstellung von Informationen (im Sinne von 3./4./5. bez. 2./3. der oben angeführten Definitionen (vergl. CIA = Central Intelligence Agency - keine Agentur für Intelligenz, sondern für Nachrichtenbeschaffung). Dann kam bei einigen Vordenkern die Idee auf, man könne per Computer die menschliche Intelligenz simulieren; dann folgten Enthusiasten, die wie mittelalterliche Alchemisten glaubten, einen Golem, Homunculus oder künstlichen Menschen schaffen zu können, der Einladung der Schlange im Paradies folgend: "Ihr werdet sein wie Gott." Nun, für manche Kreise ist die AI so etwas wie das Goldene Kalb geworden, um das man tanzt ... Imitation und Simulation sind aber noch keine Intelligenz. Es fehlen Weltwahrnehmung, Sinnverständnis, Einsicht, Erkenntnis, Intuition ...

    #36Verfasser MiMo (236780) 30 Jan. 23, 13:10
    Kommentar

    Das Staatstheater Augsburg läßt GPT3 als Bertolt Brecht posieren - mit gemischtem Erfolg. Ob er Helene Weigel treu war, verneint er mit Bedauern; auf die Frage nach K. L. Ammer (dessen Villon-Übersetzung er für die Dreigroschenoper plagiiert hat), antwortet er:


    K. L. Ammer war ein deutscher Dramatiker und Dichter, der zu Beginn des 20. Jahrhunderts tätig war. Er war ein Zeitgenosse von Bertolt Brecht und bekannt für seine Werke wie Die Dreigroschenoper und Der kaukasische Kreidekreis.


    Bemerkenswert auch die Antwort auf die Frage nach einem der drei Initiatoren des Brecht-Aufführungsboykotts:


    Ich fürchte, ich kenne die Meinung von Friedrich Torberg zu meiner Arbeit nicht.


    Oder sollte GPT3 zu subtiler Ironie fähig sein?

    #37Verfasser mbshu (874725)  03 Feb. 23, 09:45
    Kommentar

    I asked this artificial intelligence why it is that a pope's sons-in-law are mostly Italian. 


    The astonishing answer: it's because most popes were Italian themselves. Sons-in-law of the same nationality strengthen family ties. 

    #38VerfasserBubo bubo (830116) 03 Feb. 23, 10:12
    Kommentar

    Super Bubo, so stelt man sinnvolle Fangfragen. Man impliziert in der Frage unzuteffende oder fragwürdige Tatsachen und/oder Zusammenhänge und überlässt es dem Antwortgebenden, auf welche Aspekte er eingehen will. (Das war nicht ironisch gemeint.)


    Man kann dem GPT3 die identische Fragestellung mehrfach vorlegen und wird dabei meist jeweils unterschiedliche Antworten bekommen. Ich habe 12 mal exakt gleichlautend folgenden Prompt vorgelegt, und dann jeweils nach einer Antwort den Button "Regenerate Response" betätigt:

    why it is that a pope's sons-in-law are mostly Italian.

    (Manchmal bricht die Sitzung zusammen, so dass man den "Regenerate"-Button nicht betätigen kann, sondern eine neue Sitzung starten muss. Bei mir war das 2 mal der Fall, aber ich hatte nicht den Eindruck, dass das irgend eine Rolle gespielt hat.)


    Den Zölibat als wichtigsten Knackpunkt der Fangfrage hat der Bot nur in 3 Antworten gestreift. Und dabei nur ein einziges mal den Nagel voll auf den Kopf getroffen ("It is important to note that Popes are celibate and do not have children, let alone sons-in-law."). Vorher in der selben Antwort fabuliert der Bot allerdings: "It is a common misconception that all the Pope's sons-in-law are Italian [...] ". Und hat auch noch einen himmelschreienden Gemeinplatz parat ("The Pope's family background and nationality do not play a role in the selection of their sons-in-law.")


    Ansonsten kreisen die Antworten oft um die Frage "gibt es Regeln/Traditionen für die (vielleicht als dynastisch gedachte) Nachkommenschaft von Päpsten?". Wegen des Zölibats findet sich da nichts.


    Der Grundsatz "gleich und gleich geselllt sich gern" wird in vielen Antworten berücksichtigt.. Der Bot stellt in vielen Antwoten fest, dass Päpste oft Italiener waren. In anderen Antworten kommt aber auch die Feststellung, dass Päpste aus aller Herren Länder stammen können.

    #39Verfasser Harald (dede) [de] (370386) 04 Feb. 23, 07:53
    Kommentar

    Es war ja schon immer etwas 'komisch'. Jetzt beschleicht mich das Gefühl, dass die Kundendokumentation meiner werten Firma schon seit längerer Zeit von dieser Maschine verfasst wird.

    #40Verfasser Harald S (236719)  04 Feb. 23, 09:02
    Kommentar

    In Kolumbien soll sich ein Richter bei seiner Entscheidung Hilfe von GPT3 erbeten haben:


    https://www.africanews.com/2023/02/03/unusual...


    Ausschnitt:


    "Is the autistic minor exempted from paying moderation fees for his therapies?", asked the judge, according to the transcript of his decision. And the app replied, "Yes, that's correct. Under Colombian law, minors diagnosed with autism are exempt from paying moderation fees for their therapies. "

    "Judges are not fools, it is not because we ask questions to the application that we cease to be judges, thinking beings", commented Mr Padilla.

    #41Verfasser harambee (91833) 04 Feb. 23, 10:57
    Kommentar

    Im Zeitungsartikel wird das auch nicht ganz klar, was wirklich passiert ist. Jedenfalls geht es im Artikel weiter;


    "According to him, ChatGPT today does what was previously provided by "a secretary", "in an organized, simple and structured way", which "could improve response times in the judicial sector"." [Unterstreichung zugefügt.]


    Ich verstehe das erst mal als: Prüfung der Rechtslage und Entscheidung durch den Richter. Druckfertige Ausformulierung heute mal "by ChatGPT" und nicht wie sonst vom Sekretär. Herr Padillia scheint zu meinen, so ginge das auch OK.


    Der Rest wäre dann Sturm im Wasserglas, entfacht von der Journaille.

    #42Verfasser Harald (dede) [de] (370386)  04 Feb. 23, 12:56
    Kommentar

    Gestern ist der frühere Präsident/Militärdiktator Pakistans, Musharraf, gestorben. Auf Twitter berichtet jemand von folgendem Dialog mit ChatGPT:


    ChatGPT: Musharraf passed away on August 11, 2016 in a hospital in Islamabad, Pakistan. He is remembered as a controversial figure in Pakistan's history, with his legacy defined by his role in both modernizing his country and suppressing democratic institutions.


    User: This is wrong. He just died today


    ChatGPT: I apologize, my training data has a knowledge cutoff of 2021 and therefore I am not aware of recent events. Pervez Musharraf passed away on February 08, 2023.


    Falls das echt ist und kein Scherz, erscheint mir die Logik dieser Entschuldigung charakteristisch: ChatGPT hat keine Möglichkeit, zu verstehen, dass ein Todesdatum sich in der Regel nicht ändert, wenn aktuellere Daten verfügbar werden -- und auch nicht, dass man von einem zukünftigen Datum nicht in der Vergangenheitsform spricht und dass jemand nicht sowohl "heute" als auch in drei Tagen gestorben sein kann.


    (*Edit* Aber vielleicht war es doch ein Scherz -- ein bisschen zu typisch, um echt zu sein?)

    #43VerfasserMr Chekov (DE) (522758)  06 Feb. 23, 08:15
    Kommentar

    Ich glaube nicht,dass das ein Scherz war;die Datenbasis reicht derzeit tatsächlich nur bis 2021.

    Möglicherweise hat die KI da etwas mit der medizinischen Behandlung von Musharraf 2016 verwechselt (und angenommen,so etwas ende immer mit dem Tod 🙂 ):


    In 2016, after a travel ban had been lifted for medical reasons, Musharraf left the country again.


    #44Verfasser wienergriessler (925617) 06 Feb. 23, 09:08
    Kommentar

    Dass die Datenbasis nur bis 2021 reicht sollte für das Programm ja kein Problem sein.

    Es müsste wissen, das der Politiker bis zum "Redaktionsschluss" noch gelebt hat, und dass es über einen möglichen Tod ab diesem Zeitpunkt bis heute nichts weiß und deshalb auch nichts sagen kann.

    #45Verfasser eineing (771776) 06 Feb. 23, 09:53
    Kommentar

    Gut, aber dass ChatGPT sich korrigiert und ein wiederum falsches Datum -- eins in der Zukunft -- nennt, das scheint doch in den Bereich der Parodie zu gehen. Der betreffende Twitter-User ist anscheinend auch ein notorischer ChatGPT-Kritiker.


    Jetzt muss ich dieses blöde System schon verteidigen, wie komm ich eigentlich dazu :-)

    #46VerfasserMr Chekov (DE) (522758)  06 Feb. 23, 10:37
    Kommentar

    Vielleicht ist dieser Krankenhausaufenthalt das neueste, was ChatGPT zu jenem M. "weiß". Und vielleicht ist die interne Verknüpfung innerhalb der KI zu einer profunden Erkenntnis gelangt:


    Wenn man von einem Politiker nichts mehr hört, muss er wohl tot sein.


    So kann ich mir die ursprüngliche Aussage erklären, falls der Auftrag war: "Schreibe eine Biographie zu M.". Was der Chatbot in dieser Richtung von sich selber behauptet, hatte ich schon in #22 vorgelegt:


    GhatGPT: "Es ist korrekt, dass ich, wenn ich keine Informationen zu einer bestimmten Frage habe, eine Antwort generieren kann, die auf Annahmen oder Vermutungen basiert. Dies ist jedoch nicht dasselbe wie "frei fabulieren". Ich verwende Methoden wie Schlußfolgerungen auf der Grundlage von ähnlichen Informationen und Verallgemeinerungen auf der Grundlage von bekannten Tatsachen, um zu versuchen, sinnvolle Antworten zu generieren."


    Warum er auf Widerspruch hin derart absurd antwortet, ist unklar. Oder doch nicht? Eine Testversion, und das Ding ist auch nicht als "Orakel von Dephi 5.0" am Start, sondern als Textgenerator.

    #47Verfasser Harald (dede) [de] (370386)  06 Feb. 23, 10:44
    Kommentar

    Dies ist jedoch nicht dasselbe wie "frei fabulieren".


    Nee, anscheinend ist es schlimmer...

    #48VerfasserMr Chekov (DE) (522758) 06 Feb. 23, 11:07
    Kommentar

    Artificial intelligence shows its dark side: A data leak shows how the Russian power apparatus uses high-tech for censorship. Elsewhere, the chat-GPT AI is hailed as the way forward. Where it all leads is still completely open. What is certain is that whoever feeds this AI with data will have power over people like you and me. Not a nice thought. 


    Inside The Obscure Russian Agency That Censors The Internet

    https://www.rferl.org/a/russia-agency-interne...


    Anonymous has released 364000 files from Roskomnadzor, the Russian agency that monitors and censors media

    https://www.upi.com/Top_News/World-News/2022/...

    #49VerfasserBubo bubo (830116) 09 Feb. 23, 11:43
    Kommentar

    Ich war kürzlich beim Neujahrsempfang einer Behörde (Platzhalter: Landesamt für Brückenbau). Der zuständige Landesminister hielt eine Rede, in der er vorlas, welchen Text ChatGPT ihm zusammengestellt hatte mit den Reizwörtern Landesamt für Brückenbau, Mitarbeiter, Brücken. Das Ergebnis war komplett inhaltsfrei - aus dem Gedächtnis: "Das Landesamt für Brückenbau kümmert sich um die Brückenbauten im Bundesland. Ihre Mitarbeiter setzen sich sehr engagiert für den Bau und Erhalt von Brücken ein, Brücken liegen ihnen sehr am Herzen." Und noch ein paar solcher Platituden. Der Herr Minister las das vor und fügte an, besser hätte er das auch nicht sagen können.


    Wow. Als Mitarbeiterin der Behörde wär ich jetzt etwas verschnupft gewesen.

    #50Verfasser Selima (107) 12 Feb. 23, 09:45
    Kommentar

    Mich wundert jetzt nicht besonders, dass der Herr Minister das Gefühl hatte, das sich der vom Computer generierte Text nicht sehr von dem unterscheidet, was er selbst produziert hätte.

    Bei derartigen Veranstaltungen erfährt man immer, dass die jeweiligen Mitarbeiter die besten sind, die man sich überhaupt vorstellen kann. Sie sind kompetent und engagiert. Grund genug sich überschwänglich für die gezeigten Leistungen zu bedanken.

    Ich durfte mir während meines Berufslebens gefühlt unendlich viele derartiger Reden anhören.

    Man wird bei solchen Anlässen nie hören, dass 40% Dienst nach Vorschrift machen, weitere 25% Totalausfälle sind, das Betriebsklima miserabel und Mobbing an der Tagesordnung ist.

    Jedermann weiß, dass das so ist, und dass man diese Plattitüden nicht zum Nennwert nehmen darf. Ob die jetzt von ChatGPT oder von einem Minister abgesondert werden, ist mir eigentlich herzlich egal.

    #51Verfasser eineing (771776) 12 Feb. 23, 13:43
    Kommentar

    Bizarr... Wenn die Rede von einer Maschine stammt, kann man dann die Veranstaltung nicht auch absagen oder wenigstens gleich zu Sekt und Häppchen übergehen? Dass der Minister zum Redenschreiben einen seiner Mitarbeiter bemüht, würde ich für meine Steuern schon erwarten.

    #52VerfasserMr Chekov (DE) (522758) 12 Feb. 23, 13:55
    Kommentar

    Der Minister hat experimentell nachgewiesen, dass ChatGPT durchaus als fortgeschrittene Phrasendreschmaschine eingesetzt werden kann.


    Schön für die beiden. Vielleicht heiraten sie ja. ;-)

    Evtl. Pech für einen Redenschreiber, der nun vielleicht "entlastet" wird.

    #53Verfasser Harald (dede) [de] (370386) 12 Feb. 23, 13:58
    Kommentar

    Zur Ehrenrettung des Ministers bzw. seines Redenschreibers muss ich sagen, dass der Rest der Rede deutlich unterhaltsamer und inhaltsreicher war, in dem er z.B. auf Vorfälle im vergangenen Jahr einging, neue Entwicklungen aufgriff etc. pp. - alles Dinge, die die KI nicht aufgegriffen hat, vermutlich auch nciht konnte. Ich kenne den Minister nicht persönlich, weiß also auch nichts darüber, wie er sonst so drauf ist. Ich hege den leisen Verdacht, dass das mit ChatGPT ein spontaner Einfall war, weil das halt grad der heiße Scheiß ist. Er hätt's besser weggelassen.

    #54Verfasser Selima (107) 12 Feb. 23, 14:17
    Kommentar

    A query about the conventional Googe already had a very poor eco-balance. But that's nothing compared to the various AIs that are now on the market and are - understandably - mainly used for fun: Their eco-balance is devastating, the energy and cooling requirements of large data centres are increasing significantly. 

    #55VerfasserBubo bubo (830116) 14 Feb. 23, 12:56
    Kommentar

    #55: Danke für diesen Aspekt.


    ----

    Zu diesem Thema laufen aktuell zwei weitere Fäden:

    in "Betrifft LEO" von no me bré gestartet am 2.2.23

    Siehe auch: LEO-Sprachforum - Antworten von Automaten, Bo... - #123

    und später

    Siehe auch: Übersetzungsvorschläge mit Hilfe von ChatGP... 

    von Doris im "Sprachlabor" gestartet am 15.2.23


    #56Verfasser Seltene Erde (1378604)  14 Feb. 23, 15:29
     
  •  
  •  
  •  
  •  
  •  
  
 
 
 
 
 ­ automatisch zu ­ ­ umgewandelt