Advertising
LEO

It looks like you’re using an ad blocker.

Would you like to support LEO?

Disable your ad blocker for LEO or make a donation.

 
  •  
  • Forum home

    Re: LEO

    LEO-Sprachforum - Antworten von Automaten, Bots oder Menschen - Gebot der Stunde oder Unsitte

    Topic

    LEO-Sprachforum - Antworten von Automaten, Bots oder Menschen - Gebot der Stunde oder Unsitte

    Comment


      In den letzten Jahren haben ja Übersetzungsautomaten in unser aller Leben Einzug gehalten ... die Ansprüche daran sind recht unterschiedlich, vom einfachen Verständnis eines fremdsprachigen Texts über Arbeitserleichterung bis hin zur Produktion ganzer Webseiten oder gar Übersetzungen von als rechtsverbindlich geplanter Verträge. Ohne zumindest eine menschliche Überarbeitung sind deren Ergebnisse für viele von uns eher ein Amüsement als eine ernsthafte Übersetzung. Oftmals stammen mittlerweile allerdings selbst die besten Anwendungsbeispiele aus solchen Quellen und sind nicht auf den ersten Blick zu erkennen. Daran wird sich wohl nichts mehr ändern lassen.


    Und wer einen solchen Automaten verwenden will, weiß als Internetnutzer aber auf jeden Fall, wo zumindest einer, wenn nicht gleich mehrere davon zu finden sind.


    Nun hat sich hier im Forum die - in meinen Augen - Unsitte breit gemacht, auf Anfragen mit den Ergebnissen der "Übelsetzungsmaschinen" zu antworten. Vereinzelt wurden diese sogar als "Belege" für Neueinträge für die Wörterbücher angebracht.


    Zumindest mir geht es so, dass, wenn ich in einem Sprachforum nach einer Übersetzung, einer Formulierung oder einer sonstigen sprachlichen Unterstützung frage, ich eine Antwort von einem Menschen mit der Muttersprache erwarte, in deren Bereich meine Frage fällt, wenn nicht von einem Muttersprachler, dann doch zumindest von jemandem, der über Erfahrung mit der betreffenden Sprache oder in dem entsprechenden Land verfügt oder wenigstens ein paar bessere Wörterbuch zitieren kann, und nicht eine Automatenantwort, die ich mir bei Bedarf bei den Automaten schneller und einfacher besorgen kann, sogar ganz ohne Bitte und Danke. Und ich gehe davon aus, dass es anderen Leuten auch so geht.


    Ganz neu ist nun in den letzten Wochen hinzugekommen, dass der "Output" von Chatbots - sogenannten "künstlichen Intelligenzen", kurz KI oder AI - hier in den Foren eingestellt wird.


    Gehören solche Antworten - von Automaten oder Bots - wirklich in ein Sprachforum wie Leo ? Was für Antworten erwartet Ihr auf eine Anfrage hier ?


    Author no me bré (700807) 02 Feb 23, 20:20
    Comment

    Das ist eine gute und seit kurzem auf neue Art wieder virulente Frage.

    Ich* habe an dieses Forum, wie an alle anderen Hilfeforen, schon eine bestimmte Erwartung, die im OP sehr für mich* sehr gut ausgedrückt ist.

    Menschen verwenden Zeit und Expertise darauf, hier Antworten zu geben. Manche Einfälle sind vielleicht nur geraten oder mit Unsicherheit versehen, werden aber im Normalfall auch dahingehend kenntlich gemacht.

    Ansonsten ist es sehr hilfreich, wenn die Art der eingebrachten Expertise erkennbar oder (z.B. über die Einträge zu eigenen Sprachkenntnissen, Muttersprache etc.) leicht einzusehen ist.


    Dafür erwarte ich* von denen, die anfragen, ein Mindestmaß an zumutbarer Vorarbeit und Selbstinformation. Vorab ein Wörterbuch zu bemühen, eine Suchmaschine zu nutzen und eben meinetwegen auch eine KI zu konsultieren, darf erwartet werden. Das sind leicht zugängliche und öffentliche Quellen, die oft vollkommen ausreichen, um eine fachlich haltbare Antwort zu finden.


    In diesem Rahmen können solche Angaben natürlich auch in dem Umfang zitiert werden, der das Gemeinte betrifft.


    Was diese aber alle (und sei es auch nur bisher) nicht können, ist eine gründliche Einbeziehung des Kontextes, der darum immer so gut wie möglich zu einer Anfrage mitgegeben werden sollte. Und noch viel weniger können die genannten allgemeinen Recherchewerkzeuge (und andere) Anklänge, Konnotationen, Erinnerungen, hervorgerufene Emotionen etc. bestimmen und erklären.


    Ich* halte es daher für sinnvoll, solche Foren als menschliche Austauschplattformen zu betrachten.

    Die in letzter Zeit oft sehr länglichen KI-Zitate sprengen diesen Rahmen und sind auch nicht hilfreich, um auf den Punkt zu kommen oder eine klar formulierte Anfrage zu beantworten. Zudem hätten sie ja auch von dem/der Anfragenden selbst bemüht werden können.


    -------

    *: ich*, mich* kennzeichnen diesen Beitrag als ausschließlich persönliche Ansicht. Es ist daher sinnlos, sie durch eine gegenteilige Ansicht entkräften zu wollen. Korrekturen zu sachlichen Fehlern sind mir* aber herzlich willkommen.

    #1Author reverend (314585) 02 Feb 23, 23:02
    Comment

    Eine KI kann immer nur so schlau sein wie diejenigen, die sie füttern. Das heißt, die Qualität der Vorschläge hängt immer vom Ausgangsmaterial ab. Da derzeit die KI meines Wissens fast ausschließlich mit Material angelernt werden, das ausdrücklich sehr weitgehende Nutzungsrechte einräumt (um keine Lizenzgebühren zahlen zu müssen und Klagen aus dem Weg zu gehen), fehlen ihnen Quellen, die menschliche Nutzer hier einbringen können. Desweiteren stellt sich immer die Frage nach der Gewichtung des vorliegenden "Wissens" durch die KI; diese wiederum beruht auf Algorithmen, die von einer Gruppe von Menschen festgelegt wurden und vermutlich kein breit gefächertes Korrektiv haben, das generell und im Einzelfall die Gewichtung hinterfragt. Als Beispiel: Eine KI, die einen englischen Roman ins Deutsche übersetzt, würde "car" vermutlich immer mit "Auto" übersetzen, weil das die am häufigsten zutreffende Übersetzung ist; in einer heterogenen Gruppe, die sich des Themas annimmt, würde dagegen mindestens einer Person auffallen, dass der Sprecher in der Szene Franzose mit nicht ganz perfekten Englisch-Kenntnissen ist und vermutlich einen Bus meint.

    Allgemeiner: Übersetzungsvorschläge aus der KI beruhen auf Wahrscheinlichkeiten, die sich aus einem zwangsläufig vorselektierten Ausgangsmaterial ergeben. Sie können nur eingeschränkt anhand des Kontexts/der Fragestellung hinterfragen, ob die allgemein wahrscheinlichste Übersetzung auch hier die wahrscheinlich passendste ist, sie können auch nicht hinterfragen, ob der Kontext überhaupt ausreicht für einen verlässlichen Vorschlag. Als Kontext ist hier auch die Sprachebene zu verstehen, die wiederum eine Summe verschiedener Faktoren (Anlass und Zweck der Aussage, Verhältnis zwischen Absender und Empfänger etc.) ist.

    Fazit: Übersetzungsvorschläge von KI können nach dem derzeitigen Stand der Technik nicht verlässlich sein, damit sind sie auch ungeeignet als Antworten auf Anfragen hier im Forum, geschweige denn, dass man sie als Belege für einen Neueuntrag heranziehen sollte.

    #2Author Pottkieker (871812)  03 Feb 23, 08:24
    Comment

    Ganz neu ist nun in den letzten Wochen hinzugekommen, dass der "Output" von Chatbots - sogenannten "künstlichen Intelligenzen", kurz KI oder AI - hier in den Foren eingestellt wird.


    Tatsächlich als Antwort auf eine Frage? Ich kenne nur den einen Thread im Quasselzimmer, wo explizit Antworten von ChatGPT diskutiert werden. Da spricht natürlich nichts dagegen, diese auch zu zitieren.


    Ansonsten finde ich es grundsätzlich eine Unsitte, Fragen mit unkommentierten Zitaten zu beantworten, egal ob aus Wikipedia, einer KI-Antwort oder sonstigen Links. Das mag anders sein, wenn es schon andere Antworten gibt und die Zitate nur der Ergänzung dienen, aber als eine der ersten Antworten hat es immer was von "Let me google that for you".

    #3Author JanZ (805098) 03 Feb 23, 09:52
    Comment

    Wie JanZ. Es ist mir auch eigentlich nicht aufgefallen, dass vermehrt Anfragen mit MT beantwortet werden. Hast du ein paar Beispiele?

    #4Author Gibson (418762) 03 Feb 23, 14:10
    Comment

    Mir ist das aufgefallen und ich finde es nervig, aber ich meine nicht, dass wir eine Regel dazu/dagegen brauchen. Es gibt so einiges hier, was den einen oder die andere nervt. Das kann man aushalten, finde ich. In diesen Beiträgen, die mir aufgefallen sind, wurde die Verwendung von ChatGPT nie verschleiert, sondern stets deutlich gemacht.


    Beispiele:

    related discussion: Abbildbarkeit - #1

    related discussion: Dorn zum Aufstapeln von (Eisenbahn-)Rädern - #1

    related discussion: break count - #3

    related discussion: she's no better than she ought to be - #1

    related discussion: queenly - königinlich (?) - #7

    related discussion: fused flippers (penguins) - #1

    #5Author Mattes (236368) 03 Feb 23, 14:38
    Comment

    Ah, danke - das sind fast alles Fäden, bei denen ich von der Materie keine Ahnung habe und deshalb gar nicht reingeschaut habe. Das ist in der Tat nervig, nicht zu reden von überflüssig. "Ich habe mal eine komplett unzuverlässige Quelle gefragt, die hat ABC geantwortet" - was soll das?


    Eine feste Regel braucht es meiner Meinung nach auch nicht, aber es vielleicht sinnvoll, es anzusprechen. Vielleicht lesen die Leute, die diese Antworten schreiben, ja auch hier mit.

    #6Author Gibson (418762)  03 Feb 23, 15:02
    Comment

    Wie JanZ bin ich der Ansicht, dass unkommentierte Zitate nicht hierher gehören. Wenn aber deutlich gemacht wird, aus welcher Quelle ein Vorschlag stammt, finde ich das oft hilfreich.


    "Komplett unzuverlässig?" Die Übersetzungsmaschinen sind mit mehr sprachlichem Input gefüttert, als ich mir in meiner begrenzten Lebenszeit jemals anlesen werde, und ich nutze sie tatsächlich auch im wahren Leben gelegentlich als Impuls, wenn ich alternative Formulierungen suche. Wenn der zweite Schritt dann darin besteht, die Formulierungen mit meinem menschlichen Erfahrungsschatz einzuordnen, spricht doch nichts dagegen. (Ist ein bisschen wie ein Sternekoch, der einen Thermomix für den standardisierten Teil der Speisenzubereitung nutzt.)


    Besonders nützlich sind DeepL & Co. in meinen Augen, um unverständlichen Inhalt zu entschlüsseln, der durch Fehlübersetzungen zustande gekommen ist. Wenn ich weiß oder ahne, dass ein "englischer" Text ursprünglich auf Chinesisch verfasst wurde, dann führt das Hin- und Herübersetzen oft zu Aha-Momenten. Aber das ist hier wohl nicht gemeint.

    #7Author Raudona (255425)  03 Feb 23, 15:21
    Comment

    'komplett unzuverlässig' bezog sich auf Chat GPDings (weil es darum vorwiegend in den Links ging); sorry, das war in meinen Kopf klar, aber nicht in dem Satz.


    Maschinenübersetzungen sind z.T. nicht schlecht, aber da gebe ich no me bre recht, dass sie in einem Forum wie LEO eher nichts verloren haben, weil man dafür kein Forum braucht. Das kann ja nun wirklich jeder selbst nachschlagen. (Was anderes ist es, wenn die Diskussion selbst sich um MTs dreht, aber darum geht's hier ja nicht.)

    #8Author Gibson (418762)  03 Feb 23, 15:27
    Comment

    Ah, danke - das sind fast alles Fäden, bei denen ich von der Materie keine Ahnung habe und deshalb gar nicht reingeschaut habe.


    Ich hatte in zwei davon sogar reingeschaut und wusste nicht mehr, dass da ChatGPT zitiert wurde. Ich halte den Erkenntnisgewinn dadurch auch für begrenzt, erkenne aber an, dass die Leute, die das gepostet haben, einfach nur helfen wollten. Entweder als Ergänzung zu dem, was schon gesagt wurde, oder weil einfach noch niemand geantwortet hatte. Für mich ist es auch kein großer Unterschied, ob jemand einen Chatbot fragt oder ob ein Nicht-Muttersprachler versucht, Belege für eine bestimmte Verwendung auf Websites in der jeweiligen Sprache zu finden.

    #9Author JanZ (805098) 03 Feb 23, 15:53
    Comment

    Dank an bré für diesen Faden. Auch mir ist dieses sinnlose Reinkopieren von ChatGPT-Output schon unangenehm aufgefallen (damit ist nicht der Faden gemeint, der sich explizit mit ChatGPT befasst; das ist natürlich legitim). Ich hoffe, dass sich das von selbst wieder gibt, wenn die erste -- nicht ganz nachvollziehbare -- Begeisterung vorbei ist.


    DeepL kann ein nützliches Tool sein, vielleicht gilt das auch für ChatGPT (das wäre noch zu beweisen). Auf LEO hat mMn. beides nichts verloren.

    #10AuthorMr Chekov (DE) (522758)  03 Feb 23, 18:21
    Comment

    Hi nomebré, ist das eine Frage spezifisch an das LEO-Team oder meinst du mit „Ihr“ prinzipiell alle?

    #11Author Doris (LEO-Team) (33) 07 Feb 23, 14:08
    Comment

    Ich meine damit alle hier ... sowohl die gelegentlichen bis regelmäßigen Nutzerinnen und Nutzer von Leo wie auch die offiziellen Mitarbeiterinnen und Mitarbeiter von Leo ...


    Die Frage passt mE. eher hier in diese Rubrik als beispielsweise ins Sprachlabor, denn es geht ja nicht um einzelne grammatikalische, linguistische oder terminologische Fragen oder Formulierungen, sondern generell darum, inwieweit Antworten von Maschinen auf Übersetzungsanfragen ("G...T... sagt", "Laut D...L heißt es") in ein Sprachforum passen.


    Was ich damit nicht meine, das sind Diskussionen über Sinn und Zweck oder die Qualität und den Anwendungsbereich von Maschinenantworten wie sie z.B. hier Siehe auch: Neuer maschineller Übersetzer oder hier Siehe auch: Der Textgenerator GPT3 geführt werden ... das ist nochmal was ganz anderes und ein Thema für sich ....

    #12Author no me bré (700807)  07 Feb 23, 17:12
    Comment
    @nonmebré und Alle
    " ... denn es geht ja nicht um einzelne grammatikalische, linguistische oder terminologische Fragen oder Formulierungen, sondern generell darum, inwieweit Antworten von Maschinen auf Übersetzungsanfragen ("G...T... sagt", "Laut D...L heißt es") in ein Sprachforum passen."
    "Antworten von Maschinen" passen ganz sicher als incentives in eine Forumsdiskussion, denn sie bedeuten auch eine u.U. zu berücksichtigende Perspektive.
    Ich habe hier leider die Erfahrung gemacht, dass bei weitem nicht jeder nach dem Motto "leben und leben lassen" geht. Einige Kandidaten spielen sich auch nachweislich als Platzhirschen auf, die glauben anderen selbstherrlich ihre Meinungen aufoktroyieren zu müssen. Dabei gerieren diese sich u.U. nicht nur selbstverständlich humorlos, sondern auch ausgesprochen agressiv.
    -
    Die Angaben von "Maschinen" sollten nicht als "Beleg" missverstanden werden. Das ist doch allen klar, meine ich; aber es spricht absolut nichts dagegen diese Angaben als u.U. "sachdienliche Hinweise" zur Kenntnis zu nehmen und zu diskutieren.
    -
    Die "Maschinen" entwickeln sich rasant und werden immer interessanter für den, der kreativ damit umgehen kann.

    Auf Forums"beiträge" von Leuten, die NICHT sachbezogen sauertöpfisch launischen Defaitismus einbringen jedesmal wenn man es auch nur wagt reverso oder linguee Ergebnisse einzubringen, kann glaube ich jeder gut verzichten. Was soll das? Ich lasse mir nicht gern von AI - Ignoranten an den Karren fahren, nicht weil ich es nicht aushalten würde, sondern weil dieses mähmähmäh-Getue JEDEN EINZELNEN thread schlicht und einfach stört!

    DAS nervt gewaltig und nicht die Tatsache, dass AI - Ergebnisse eingebracht werden.

    Ich fand die Bemerkung von weiter oben sehr schön, dass in den Foren halt auch AI-Ergebnisse eingebracht werden von Teilnehmern, die einfach helfen wollen ... ( um dann auf Miesmacher und Spielverderber und Faden-Zerschneider zu treffen )

    Lasst es halt einfach stecken, wenn ihr auf eine AI - Zuspielung stoßt ! Es ist NICHT von allgemeinem Interesse, wenn ihr persönlich der Meinung seid, man sollte das hier kurzerhand VERBIETEN.

    RED FLAG ! sage ich ... in einer comunity, die von freiwilligen, gutwilligen Beiträgen lebt. Tobt euch HIER aus und nicht in den einzelnen Forumsbeiträgen!.

    P.S. Grossschreibung mangels der Möglichkeiten am Handy bold zu formatieren !
    #13Author sebsn (1039076)  11 Feb 23, 00:08
    Comment

    Ein Versuch sine ira et studio:


    Da ich von 1971 bis 1993 als Informatiker (u.a. bei einem Computerhersteller) gearbeitet habe und seit 1993 als literarischer Übersetzer und belletristischer Autor tätig bin, interessiert mich die Entwicklung der sogenannten AI/KI und ich stelle auch immer wieder Versuche zur literarischen Übersetzung durch den Google-Übersetzer an, um zu sehen, wie der "Stand der Dinge" auf diesem Gebiet praktisch ist. (Diese Experimente finden zwischen Deutsch, Englisch, Gaidhlig (Schottisch-Gälisch), Gaeilge (Irisch-Gälisch) und Walisisch statt.)


    Ich bekenne, dass ich schon 1972 in einem Beitrag mit dem Titel „Können Computer das Sprachproblem lösen?“ Computerprogrammen grundsätzlich die Fähigkeit abgesprochen habe, so gut wie menschliche literarische Übersetzer literarische Texte übersetzen zu können. Von dieser grundsätzlichen, auf philosophischen Überlegungen beruhenden Überzeugung bin ich bis heute nicht abgekommen, verfolge die Entwicklung aber mit Interesse.


    Ich meine, dass man in einem Forum wie LEO durchaus Fragmente aus einer per "AI" erfolgten Übersetzung vorstellen oder zur Diskussion stellen kann, sofern man sie klar als Output eines Programms kennzeichnet (wie ich selbst es schon getan habe) und nicht dem Publikum als Ergebnis menschlichen Übersetzens unterzujubeln versucht.


    Im übrigen ist KI/AI eine Glaubensfrage, denn es gibt noch keine allgemeingültige Definition von "Intelligenz". Dass eine Maschine oder ein Programm wirklich "intelligent" sein kann wie ein Mensch, ist noch nicht bewiesen.


    "intelligence" im Begriff "artificial intelligence" verstehe ich als Nr.3 oder 4 in Collins' Eintrag:

    "intelligence in British English:

    1. the capacity for understanding; ability to perceive and comprehend meaning

    2. good mental capacity

    3.  old-fashioned news; information

    4. military information about enemies, spies, etc",

    und halte deshalb "künstliche Intelligenz" für eine Fehlübersetzung wie "soziale Medien" für "social media".


    (OT: Vor ein paar Tagen las ich unter der Überschrift "Können Roboter lieben?" die ernsthafte Ankündigung, dass jetzt "articial love" im Aufblühen sei und man sich in einen Roboter verlieben könne ...)


    #14Author MiMo (236780) 11 Feb 23, 03:47
    Comment
    ... in Einem muss ich dir widerspechen, Mimo :
    AI ist keine "Glaubensfrage", sondern längst gesellschaftliche und wirtschaftliche Realität.
    Die Frage, "ob AI intelligent sei" ist irrelevant, es ist mE eine Luxusfrage, die ablenkt von dem erwarteten Potential und dessen gesellschaftlichen Auswirkungen. Insofern gehört OpenAI zu den wichtigsten Projekten. Ein jeder Einzelne tut mE gut daran, sich damit offen und unvoreingenommen zu beschäftigen.

    Die Ergebnisse sprachlicher AI lassen sich kreativ nutzen, vor allem auf dem Gebiet der Theorie-bildung; das ist meine ( vielleicht verengte ) Sichtweise. - Theorie- und damit Begriffsbildung haben mit logischem Verknüpfen zu tun und da ist zB ChatGPT in einem engen Bereich erstaunlich gut, obwohl weit, weit entfernt von eigenem planvollem Denken. Ein nicht mehr nur rudimentäres MITdenken kann aber durchaus behauptet werden.

    Ich verfolge die Entwicklung sehr gespannt und mein eigenes Denken wird ergänzt, erweitert und inspiriert im freien Umgang mit den Ergebnissen dieser Software. Das wünsche ich natürlich auch den "Reservierten" unter uns! :-)
    #15Author sebsn (1039076)  11 Feb 23, 04:35
    Comment

    Auf die Gefahr hin, mir jedesmal eine Gardinenpredigt von sebsn einzuhandeln, werde ich mir auch weiterhin jeweils den Hinweis erlauben: ChatGPT-Content trägt zum Finden von Übersetzungslösungen nichts bei, das ist ein reines Zuspammen der LEO-Fäden mit Müll. Erkenntnisgewinn etwa gleich demjenigen, wenn einer fünf unkommentierte Links auf Linguee oder Reverso.net postet -- wobei die Links ja wenigstens kurz wären.


    Ich bezweifle, dass das Maschinengequassel hier "verboten" werden kann oder sollte; aber jedenfalls ist es unwürdig und läuft Sinn und Zweck des Forums entgegen.

    #16AuthorMr Chekov (DE) (522758)  11 Feb 23, 06:41
    Comment
    Ich gehe eigentlich davon aus, dass eine KI sich aus dem LEO-Forum bedient. Wohlformulierte, sinnvolle Kommentare tragen doch zum "Intelligenz"gewinn der Maschine bei! Insofern wären Zirkelkonstruktionen, in denen menschliche LEOniden wiederum KI zitieren, eine geistige Verarmung und daher zu vermeiden.
    #17Author tigger (236106) 11 Feb 23, 07:36
    Comment
    @chekov

    "... aber jedenfalls ist es unwürdig und läuft Sinn und Zweck des Forums entgegen."
    -
    Das ist deine Meinung, und indem du in Forumsdiskussionen, in denen deine MEINUNG zu etwas, das absolut NICHTS mit dem Diskussionsgegenstand zu tun hat, immer und immer wieder breittretest, STÖRST du diese ganz einfach.
    Du störst mit deinem Schmarrn und bist aufdringlich ! Es könnte so einfach sein: Nimm einfach keinen Bezug auf Beiträge, die AI Bezüge beinhalten. Im Klartext heisst deine Ansage :
    Es interessiert mich nicht, dass ich andere störe; mir liegt daran, mich aufzuspielen, mich über andere zu stellen und mir anzumassen, anderen zu sagen wo es lang geht.
    -
    Deine Doppelmoral ist unerträglich, denn UNWÜRDIG sind deine Störmanöver, hinter denen sich nur notdürftig kaschiert Geltungssucht verbirgt, nicht der Bezug auf Sprach-AIs.
    -
    Ein Forum, das von der Liebe zur Sprache und der frei- und gutwillig eingebrachten Mühe und Arbeit
    seiner erwachsenen Mitglieder lebt, braucht keine "Erzieher", Meinungsmacher und Forumshitler, sondern ausschliesslich den RESPEKT VOR DER SACHE und den anderen GLEICHGESTELLTEN Mitgliedern.
    #18Author sebsn (1039076) 11 Feb 23, 09:00
    Comment

    Ich hätte deinen Beitrag vielleicht sogar gelesen, hab' aber wegen der vielen Versalien darauf verzichtet. Du scheinst weder zu verstehen, wozu dieses Forum dient, noch an welche Regeln man sich hier üblicherweise hält.

    #19AuthorMr Chekov (DE) (522758) 11 Feb 23, 09:10
    Comment
    @chekov

    Lass einfach wenigstens hier das Dissen ! Vom Handy aus hat man keine Möglichkeit bold oder anders zu formatieren. ( zum. nicht in Android )
    [ Es braucht nur ein bisschen Küchenpsychologie in deinem Fall, um zu bemerken, dass du meinen letzten Beitrag ganz genau studiert hast, um dir deine letzte Antwort schön zurechtzulegen. - Dir gehen ganz einfach die Argumente aus. ] ;-)
    #20Author sebsn (1039076) 11 Feb 23, 10:04
    Comment

    Okay, dass du nicht fett schreiben kannst, aber unbedingt willst, wusste ich ja nicht. Kopier doch deinen Post noch mal hier rein, ohne die sinnlosen Großbuchstaben. Ich verspreche, ihn dann zu lesen und die darin enthaltene Weisheit in meinem Herzen zu bewegen.

    #21AuthorMr Chekov (DE) (522758) 11 Feb 23, 10:10
    Comment

    Um zu sehen, dass du gern Versalien verwendest, braucht man deine Beiträge nicht zu lesen. Es reicht, die Augen darübergleiten zu lassen. Aber sei doch bitte so lieb und beachte die Netiquette.

    #22Author penguin (236245) 11 Feb 23, 10:32
    Comment
    Zusammenfassung (-)... sversuch ) :

    Nachdem beide konträren Parteien genug Dampf abgelassen haben, kann man doch festhalten, dass sie sich in einem Punkt einig sind : Das Einbringen von AI-Ergebnissen gefällt nicht jedem; das ist ein Fakt. Es ist aber ebenso ein Fakt, dass viele dies als Erweiterung und Ergänzung einer Forumsdiskussion sehen.

    Solange das Anführen von AI-Treffern als solches mit einem entsprechenden Hinweis versehen ist, sollte nichts dagegen stehen; dies sollte allerdings nicht als Beleg, zB für Neueinträge herangezogen werden. Damit bin auch ich d'accord.

    Es besteht dann auch keine Notwendigkeit in den speziellen Forumsdiskussionen jedes einzelne Mal die Geissel auszupacken, denn das stört den einzelnen Diskussionsverlauf. Die Liebhaber der "rein analogen Verfahrensweise" sind als solche wichtig und entscheidend, wenn es um Neueinträge geht. Man sollte nicht übersehen, dass Quellensuche und -Verlinkung ein mitunter mühevolles Geschäft ist; das sollte selbstverständlich von der "AI-Fraktion" gewürdigt und respektiert werden.

    Sollten AI-Treffer als "Beleg" geltend gemacht werden, genügt ein einfacher Hinweis, zB dieser Art:

    "Bitte AI-Treffer nicht als Beleg anführen." siehe auch : [ + Verlinkung zu dieser Diskussion hier ]

    Wer einen Beitrag zB mit "ChatGPT schlägt vor:" beginnt, sollte aus forumshygienischen Gründen in Ruhe gelassen werden; dann ist beiden Parteien recht geschehen und der Diskussionsverlauf nicht unnötig gestört. Den "Verfechtern der reinen Lehre" bleibt es überlassen auf solche Beiträge keinen Bezug zu nehmen.

    Eine immer wieder an falscher Stelle aufgewärmte Grundsatzdiskussion wird die Leute, die locker mit Sprach-AI umgehen mit Sicherheit nicht davon abbringen, ihre Einstellung zur AI zu ändern.
    #23Author sebsn (1039076)  11 Feb 23, 11:06
    Comment

    Wer einen Beitrag zB mit "ChatGPT schlägt vor:" beginnt, sollte aus forumshygienischen Gründen in Ruhe gelassen werden


    Wenn jemand einen Beitrag so beginnt, sollte -- auch wenn's nach ein paar Mal nervt -- auf den Beitrag der Hinweis folgen, dass "Vorschläge" von ChatGPT hier nutzlos sind, weil sie unbelegt sind, nicht unmittelbar von Menschen stammen und das System keine Vorstellung von der Welt, von Kontext oder von sonst irgendwas besitzt. Das LEO-Forum ist keine Entsorgungsstelle für digitale Logorrhö.

    #24AuthorMr Chekov (DE) (522758)  11 Feb 23, 11:45
    Comment
    ( letzter Beitrag von meiner Seite ) :

    Dass Vorschläge aus ChatGPT "nutzlos, sinnlos etc." sind, ist halt deine Meinung, deine Einstellung und deine subjektive Empfindung dazu; nichts mehr und nichts weniger.

    Es gehört zum Respekt anderen gegenüber im Forum, dass du die Meinung und Einstellung anderer gelten lässt und nicht meinst, deine Meinung anderen, noch dazu, wie gesagt, völlig sinnlos, immer wieder aufdrängen zu müssen. Zumindest theoretisch solltest du die Empathie aufbringen können, dass andere anders ticken als du, auch wenn du in diesem Fall dafür das Verständnis eben nicht aufbringen kannst oder willst.

    Wäre ich der einzige, der AI-Treffer gerne einbringt, müsste ich mich geschlagen geben; da dem nicht so ist, ist das Gebot der Stunde, dass du dir meine doch saubere, detaillerte und ausgleichend gemeinte Argumentation wirklich zu Herzen nimmst. Wenn du das schaffst, hast nicht nur du selber weniger Stress, sondern tust allen einen Gefallen damit.
    #25Author sebsn (1039076) 11 Feb 23, 12:32
    Comment

    Anders ausgedrückt: Du willst posten, was du für richtig hältst (dein gutes Recht), und willst außerdem, dass deine Beiträge nicht kritisiert werden (ganz und gar nicht dein Recht, so wenig wie meins oder irgendjemands). Gut, dass wir das mal klargestellt haben :-)

    #26AuthorMr Chekov (DE) (522758)  11 Feb 23, 12:35
    Comment
    Ein EDIT war wegen der schnellen Antwort von Chekov nicht mehr möglich, deshalb hier mein Nachtrag :
    Ich schliesse mit der Bitte an nonmebré den von ihm eröffneten Chat zusammenfassend abzuschliessen, weil die Diskussion zunehmend zirkulär verläuft. ;-)
    #27Author sebsn (1039076)  11 Feb 23, 12:38
    Comment

    --> #15


    Dass etwas "längst gesellschaftliche und wirtschaftliche Realität" ist, bedeutet noch nicht, dass es unbedenklich oder problemlos zu verwenden ist. Computer und Programme, die in bestimmten Bereichen ein intelligentes Verhalten simulieren, können sicher hilfreich sein. (Ich selber habe schon 1979 derartige Programme geschrieben.) Man sollte sich aber immer bewusst sein, dass es sich dabei nur um eine vorgetäuschte Intelligenz handelt. Und man sollte einer "AI" nicht die Kompetenz und Vollmacht eines Menschen übertragen.


    Ein Programm, das etwa behauptet, Goethe sei der größte fränkische Schriftsteller, oder auf die Frage: "Was ist schwerer, eine Tonne Stahl oder eine Tonne Nudeln?" antwortet: "Eine Tonne Stahl ist schwerer, denn Stahl ist härter als Nudeln", oder das auf Fragen, die es nicht beantworten kann, nicht sagt: "Ich weiß es nicht", sondern mit falschen Informationen antwortet, kann ich nicht als "intelligent" betrachten.


    Da ich Philologe und Informatiker bin, nehme ich die Bemühungen um die automatische Übersetzung mit Interesse zur Kenntnis, kann aber den Enthusiasmus und die Euphorie der "AI"-Gläubigen nicht teilen. Aber Aufgaben wie die Quadratur des Kreises, die Konstruktion des Perpetuum Mobile, die Verwandlung unedler Materie in Gold oder die Schaffung des Homunculus haben schon immer viele kluge Leute animiert, in alle möglichen Richtungen zu forschen. Irgendwelche nützlichen Nebenprodukte oder praktikablen Erkenntnisse fallen dabei immer (unbeabsichtigt) ab.


    Doch ich halte den deutschen Begriff der "künstlichen Intelligenz" auch weiterhin für eine Art Etikettenschwindel, denn Intelligenz ist etwas anderes als das superschnelle Abarbeiten vorgegebener Algorithmen über gespeicherte digitale Daten.

    #28Author MiMo (236780) 11 Feb 23, 15:36
    Comment

    @sebsn Forumshitler? Bist du noch ganz gescheit?


    MiMo, ich habe es bis jetzt so verstanden, dass KI auch selbstlernend ist. Es könnte also gut sein, dass sie nach einem gewissen Lernprozess die Antwort gibt: Eine Tonne sind eintausend Kilogramm, somit sind eine Tonne Stahl und eine Tonne Nudeln gleich schwer. Mit dieser Frage hat man uns damals in der Schule aufs Glatteis führen wollen. Ich bin sicher, wenn man in einer Quizshow, bei der es auf schnelles Antworten ankommt, auch die Antwort hören würde eine Tonne Stahl seien schwerer.

    #29Author cassandra _1 (1375961)  11 Feb 23, 15:41
    Comment

    ... wobei es hier auf LEO ja oft nicht um nackte Fakten, sondern um Formulierungen geht. Vielleicht wird ChatGPT irgendwann korrekt wiedergeben, dass eine Tonne von egal was nur eine Tonne ist; was sprachliche Probleme angeht, ist aber noch größere Skepsis am Platz. Auch ein Papagei mag Sätze in "richtigem" Deutsch äußern; möglicherweise sind die sogar wahr -- zu stilistischen und Übersetzungsfragen würde man ihn trotzdem nicht zu Rate ziehen.

    #30AuthorMr Chekov (DE) (522758)  11 Feb 23, 17:35
    Comment

    Zum jetzigen Zeitpunkt würde ich dir auf jeden Fall recht geben. Aber es wäre doch mal interessant, wenn man z.B. "Die Glocke" in das Programm einpflegt und dann über einen bestimmten Zeitraum beobachtet, ob und wie sich die Übersetzung ändert. Wenn ein Programm selbstlernend ist, müsste es ja auch Verbesserungen vornehmen können. Da müsste dann der Papagei kapitulieren. Ich glaube, dass man selbstlernende Programme erst abschließend nach einem bestimmten Zeitraum beurteilen kann.

    #31Author cassandra _1 (1375961) 11 Feb 23, 19:02
    Comment
    Das wäre eine hübsche Spielerei, aber warum sollte ein System, das Schiller imitiert, für unsere Zwecke besser geeignet sein?
    #32AuthorMr Chekov (DE) (522758)  12 Feb 23, 06:07
    Comment

    Ich kann verstehen, dass Übersetzer der Sache skeptisch gegenüber stehen. Aber man könnte ja mal schauen, in welchen Bereichen diese Technik eingesetzt werden kann. Vielleicht würden mit dieser Technik Programme wie Deep, Google Translate oder FB-Translator genauer. Vielleicht könnte man diese Technik in Behörden einsetzen, wenn man online Anträge stellt. Die FDP möchte, dass jetzt in den Behörden englisch gesprochen wird. Nun ist nicht jeder sprachbegabt und bei Behörden muss eine Sache auch gerichtsfest sein. Wenn man diese Dinge online erledigen könnte - was ich bestimmt nicht mehr erleben werde, so langsam wie bei uns die Digitalisierung fortschreitet, könnte es eine ERleichterung sein. Ich begegne der KI zumindest mit Interesse - auch wenn ich bestimmte Probleme nicht ausblende.


    Wilhelm II soll gesagt haben: "Ich glaube an das Pferd. Das Automobil ist nur eine vorübergehende Erscheinung" ;-)


    #33Author cassandra _1 (1375961)  12 Feb 23, 13:44
    Comment

    Die FDP möchte, dass jetzt in den Behörden englisch gesprochen wird. Nun ist nicht jeder sprachbegabt und bei Behörden muss eine Sache auch gerichtsfest sein.

    Das ist dann so ziemliche das Letzte, wo ich eine KI dranlassen würde. Bei Rechtstexten etc. sind die Folgen von Nuancen mitunter gravierend.

    #34Author Pottkieker (871812) 12 Feb 23, 14:15
    Comment

    Daran kann man ja arbeiten, z.B. beim erstellen von Anträgen. Ich glaube nicht, dass es in naher Zukunft kommen wird. Zum jetzigen Zeitpunkt wäre ich auch dagegen.Ein unausgereiftes System einzusetzen, wäre unverantwortlich. Darum habe ich ja auch geschrieben, dass ich das wahrscheinlich nicht mehr erleben werde. Ich werde 61.

    #35Author cassandra _1 (1375961)  12 Feb 23, 14:24
    Comment

    Bei Rechtstexten etc. sind die Folgen von Nuancen mitunter gravierend. (#34)


    Das nehme ich auch an, und jemand muss den Text auch letztlich verantworten; egal, wie der entstanden ist. Das Problem ist nur, jetzt heißt es dann: "Lieber Jurist, den Vertrag setzen wir selber mit JurChat-AI-Klickibunti auf, dann musst du nur noch mal schnell drüberschauen, das geht ja ratzfatz, wann kann ich das haben?"


    Wenn einer seinen Job ernst nimmt, hat er Pech gehabt. Leider ist das die Zukunft, da hat Cassandra sicher Recht.

    #36AuthorMr Chekov (DE) (522758)  12 Feb 23, 14:40
    Comment

    Hier ist der Link zu einem Podcasst der FAZ über CahtGPT


    https://www.faz.net/podcasts/f-a-z-wissen-der...


    Es lohnst sich, mal reinzuhören da er auch nicht unkritisch istl.

    #37Author cassandra _1 (1375961) 12 Feb 23, 17:42
    Comment

    #23 sebsn: "Solange das Anführen von AI-Treffern als solches mit einem entsprechenden Hinweis versehen ist, sollte nichts dagegen stehen; dies sollte allerdings nicht als Beleg, zB für Neueinträge herangezogen werden. Damit bin auch ich d'accord."


    Ich deute Deine Worte (Hervorhebung von mir) so, dass Du durchaus einen Unterschied in der Zuverlässigkeit zwischen menschlicher Urteilskraft und der sogennnten KI erkennen kannst.


    Ich wünsche mir dieses Forum so, dass dieser Unterschied auch jedem Einsteiger hier deutlich klar gemacht wird. Und zwar dadurch, dass Ergebnisse einer KI ganz grundsätzlich nicht gleichwertig und ohne jeden Widerspruch neben die Ergebnisse menschlicher Urteilskraft gestellt werden.


    Wer KIs befragen möchte, der darf das gerne tun. Linguee, Google und viele andere stehen jedemann im Netz äußerst willig zur Verfügung. Auch ChatGPT höchstselber, die Anmeldeprozedur ist absolut schmerzfrei und kostenlos. Aber diejenigen, die hier von den echten Intelligenzen profitieren wollen, sollten wir nicht einfach mit weiter gereichten KI-Auskünften abspeisen.


    Das heißt nicht, dass KI-Ergebnisse hier selbst als Anregungen in einer Diskussion "streng verboten" sein sollten. Aber wenn sie überhaupt in einer Diskussion auftauchen, sollte stets klar und deutlich werden, dass solche Ergebnisse ohne eine kompetente menschliche Zustimmung leider eine Fehleranfälligkeit haben, die (nach heutigem Stand von KI) nicht zu vernachlässigen ist.


    (Das alles wurde hier im Faden bereits gesagt. Aber noch nicht von mir. Sorry für die Redundanz. ;-)

    #38Author Harald (dede) [de] (370386)  13 Feb 23, 01:11
    Comment
    #38 Harald

    "Ich deute Deine Worte (Hervorhebung von mir) so, dass Du durchaus einen Unterschied in der Zuverlässigkeit zwischen menschlicher Urteilskraft und der sogennnten KI erkennen kannst.,"
    -
    Es ist mE überhaupt nicht relevant wie der Einzelne zu Sprach-AIs steht; wenn jemand eine entsprechende Eingabe kenntlich macht, hat er den anderen Forumsteilnehmern diskussionswürdiges Material zur Verfügung gestellt, auf das man sich beziehen kann oder auch nicht.
    -
    Die "Unterschiede in der Zuverlässigkeit" sind mittlerweile oft nicht mehr vorhanden, stehen aber doch gar nicht zur Debatte, denn man darf nicht vergessen, dass hinter jedem Eintrag mit Sprach-AI ein abwägender Mensch steht, der den Treffer nach bestem Wissen und Gewissen geprüft hat. Sollte eine solche Prüfung nicht ausreichend gewesen sein, wird sich schon jemand finden, der auf Fehler hinweist. ... oder?

    #39Author sebsn (1039076)  13 Feb 23, 09:51
    Comment

    Mal den ganzen Hickhack beiseite gelassen: Künstliche Intelligenz ist mehr als nur das Wiederholen von Informationen, insofern ist MiMos #14 ("intelligence" im Begriff "artificial intelligence" verstehe ich als Nr.3 oder 4 in Collins' Eintrag) viel zu eng gedacht. Künstliche Intelligenz versucht, Denkprozesse "echter" Intelligenz nachzuvollziehen, wird dies aber in naher Zukunft bestenfalls für Entscheidungsprozesse einigermaßen realisieren können (heißt: Kreativität oder Textverständnis braucht Ihr von einer AI/KI gar nicht erst zu erwarten). Eine KI kann also nur auf Wissen zugreifen, das irgendwo schon verzeichnet ist, ist aber dennoch mehr, als nur ein stumpfes Zitat aus einer anderen Webseite.


    Grundsätzlich können Ergebnisse einer KI nur Entscheidungen oder Ideen echter Intelligenzen wiederholen. Wenn man in irgendeiner Diskussion sich auf den Output einer KI bezieht, muss man zwangsläufig den gesamten Datenbestand und Lernmechanismus, den die KI genutzt hat, um zu diesem Ergebnis zu kommen, mit berücksichtigen, dies ist aber praktisch unmöglich. So sind Beiträge der Art "ChatGPT sagt hierzu..." ähnlich hilfreich, als würde man in einer Physikvorlesung "The Big Bang Theory" zitieren. Eine Ablenkung, die einige als amüsant betrachten, die einen fachlich aber nicht weiterbringt.


    Dass manchmal, wenn ein Faden "eigentlich" längst abgeschlossen ist, nochmal jemand schnell einen Wikipedia-Eintrag zitiert, der teilweise nicht mal mehr mit der ursprünglichen Frage sondern bestenfalls mit einem Erklärungsversuch innerhalb der Antworten zu tun hat, weckt in mir meist den Verdacht, dass gerade da auch eine KI am Werk war. Insbesondere wenn der Beitrag, wie beschrieben unkommentiert ist, und man sich fragt "ja wieso wurde das denn jetzt gepostet?" Da der oder die Forumsteilnehmer:in, unter dessen/deren Namen dies dann gepostet wurde, ansonsten aber für fundierte Aussagen bekannt ist, stellt sich die Frage nach dem "Wieso" erst recht.


    Grundsätzlich möchte ich nichts verbieten, sehe es aber ebenso als sinnlos an, solche Beiträge hier reinzustellen. Neben dem lmgtfy-Gefühl, das das vermittelt (und damit dem Grundsatz des Respekts eh entgegensteht), ist es auch Verlust an Zeit, Bandbreite und Aufmerksamkeit des Lesers, daher möchte ich dafür plädieren, solche Beiträge auf das notwendige Minimum zu beschränken.


    Insbesondere widerspreche ich aber der Aussage, dass man es ruhig posten kann, wenn man es entsprechend kenntlich macht. Wenn ich im Forum ein "Meiner Meinung nach ist sebsn/Harald/m.dietz ein Volldepp" lese, dann würde ja auch niemand sagen, "Das darf er/sie posten, weil es eindeutig als persönliche Meinung gekennzeichnet ist.". Und ob hinter jedem Eintrag wirklich ein Mensch steht, der den Eintrag abgewägt hat, bevor er ihn hier wiederholt... nun, ich denke da geht sebsn etwas blauäugig mit der Sache um.

    #40Authorm.dietz (780138)  13 Feb 23, 13:49
    Comment
    #40 m.dietz
    " ist es auch Verlust an Zeit, Bandbreite und Aufmerksamkeit des Lesers, daher möchte ich dafür plädieren, solche Beiträge auf das notwendige Minimum zu beschränken."
    -
    Das könnte gut in eine vom LEO-team ausgegebene Empfehlung gepackt werden, nach dem Motto : "überlegt bitte sorgfältig inwieweit ein Sprach-AI-Beitrag die Diskussion bereichern kann und prüft diese Beiträge so gut ihr könnt."
    -
    Den wichtigsten Punkt jedoch sprichst Du implizit ganz klar an : Wenn ein gutgemeinter AI-Beitrag ins Spiel gebracht wird, sollte dem Forumsteilnehmer nicht gleich über den Mund gefahren werden, um hinterrücks die Grundsatzdiskussion in den thread zu zerren; dieses nämlich ist es, was allemvoran den "Verlust an Zeit, Bandbreite und Aufmerksamkeit des Lesers" generiert.
    -
    Nicht alle Forumsteilnehmer sind sprachlich und von den Registern her auf dem gleichen Stand; der eine kann vom anderen lernen und das sollte immer als Werterahmen ganz oben stehen. Die Stärke eine Forums wie diesem kann immer nur in der sachlichen Orientierung, dem "sachbezogenen Mehrwert" gemessen werden; dazu gehört aber auch, dass man alle respektiert und sich beispielhaft je nach Vermögen um Sachbezogenheit sorgt in den eigenen Beiträgen und es sich verkneift "von aussen oder hinten her" unsachlich wird.
    -
    Es sind doch prinzipiell alle hier an Sprachaustausch und Sprachvertiefung interessiert. Alles was nicht in diese Richtung geht sollte halt möglichst aussen vor bleiben. Es geht halt eben NICHT in erster Linie um "Meinungsaustausch" in den sachbezogenen Foren, sondern darum klärende Ergebnisse zustandezubringen.
    -
    Wie gesagt : Die immer gleichen paralell geführten Grabenkämpfe sind nur "Zeit- und Aufmerksamkeitsfresser".


    #41Author sebsn (1039076) 13 Feb 23, 14:24
    Comment

    "gutgemeinter AI-Beitrag" ist meiner Meinung nach bereits ein Widerspruch in sich. Eine KI/AI hat keine Meinung, kann es also auch nicht gut meinen, und wenn ein Mensch einen KI-Beitrag wiederholt, hat er/sie sich meist keine eigenen Gedanken dazu gemacht, denn sonst würde er/sie aus eigener Erfahrung zitieren, nicht aus einem KI-Beitrag. Hier steht also auch kein "gut gemeint" dahinter.

    Ein Netikette-Eintrag hierüber, wenn selbst das simple "erst denken, dann kritisieren" als "bereits im Respektsgedanke inbegriffen" abgelehnt wurde? Ich will jetzt nicht sagen "Träum weiter", aber ich denke Du weißt, worauf das hinausläuft: eine Kleinfieselei von Regeln, die im Endeffekt nicht mehr nachvollziehbar ist, und nur existiert, damit sich jemand darauf berufen kann, warum sein Beitrag eben doch erlaubt sein sollte, auch wenn er >90% der Teilnehmer verärgert.

    Gerade weil die Beiträge hier hier sachbezogen und zum gegenseitigen Lernen gedacht sein sollten, sollte Blindtext (und als solchen muss ich nun mal den Output von KI sehen, als IT Fachkraft weiß ich wovon ich rede) vermieden werden. Sich gegen solche Beiträge zu wehren hat dann nichts mit "hinterrücks" oder "über den Mund fahren" zu tun, sondern sind schlicht und ergreifend ein legitimes "Schön, und was soll der Beitrag mir bringen"?

    Du möchtest auf Basis des gegenseitigen Respekts Kritik an Beiträgen verbieten, die gedankenlos (und damit respektlos) eingestellt wurden? Der Widerspruch darin ist Dir aber wohl selbst klar, oder? In einen anderen Kontext gehoben heißt dies, nicht mehr bei Straftaten einzugreifen, weil ich den Straftäter damit in seiner Freiheit, Fehler zu machen, einschränken würde. "Alle müssen mir Respekt zollen, als König der Welt und Allwissender Gott, der ich bin, steht meine Handlungsweise jenseits jeglicher Kritik durch das Fußvolk" (rhetorische Übertreibung)? Sorry, aber eine solche Auffassung kann ich nicht ernst nehmen...


    #42Authorm.dietz (780138) 13 Feb 23, 14:55
    Comment
    @ m.dietz
    ... mit "gut gemeinter AI-Beitrag" meine ich doch, dass ein gutmeinender Mensch den AI-Beitrag geprüft, für sachbezogen und inhaltlich diskussionsfördernd und -beiträglich hält. ;-)
    -
    Wenn ich mein eigenes Zeug aus meiner Theoriebildungswerkstatt ( tut nichts zur Sache worum es da geht, auf jeden Fall ohne literarischen Anspruch ) ins EN übersetzen lasse, dann kratze ich erst mal mein gesammeltes EN-Sprach-Gefühl und -Wissen zusammen, schau mir's genau an, wo es haken könnte ( und lass es ggflls einen Muttersprachler probelesen )
    -
    Ähnlich mache ich es mit zB reverso-Beispielsätzen, die ich hier u.U. einbringen möchte ... wobei ja noch bemerkt sein muss, dass reverso sich aus echten Texten bedient.

    Deepl.com wird immer besser und mit einem Mix aus Maschinenhilfe und kritischem Sprachgefühl schreib ich doch gern auch mal was auf EN hier.


    Von ChatGPT, wenn man sich etwas mit voice-and-style-commands beschäftigt, also auf die Maschine EINGEHT, kann man ganz schön profitieren! ... etc. etc. ... aber das ist nicht jedermanns Sache, was ich ohne Probleme respektieren kann. Das sollte halt auf der anderen Seite reziprok respektiert werden. Ich sehe beim besten Willen kein wirkliches SACHLICHES Problem.
    #43Author sebsn (1039076) 13 Feb 23, 15:32
    Comment

    Das sachliche Problem ist, dass LEO Nutzer hat, die hier Fragen stellen, gern Antworten von "richtigen Menschen" hätten und vielleicht nicht viel Zeit mit Nachdenken über verlässliche Quellen und über Sinn oder Unsinn von maschinengenerierten Texten verbringen. Denen mit ChatGPT-Output zu kommen, ist weder hilfreich noch fair. Da spielt es dann wiederum keine Rolle, ob du persönlich gern mit ChatGPT arbeitest; das bleibt dir ja unbenommen.

    #44AuthorMr Chekov (DE) (522758)  13 Feb 23, 15:42
    Comment

    Ich habe oben (#10, wenn ich mich recht entsinne) das Beispiel des Wortes "car" genutzt, um darzulegen, wie eine KI anhand von Wahrscheinlichkeiten "denkt", die sich aus ihrem Datenpool ergeben. Ich möchte das Beispiel noch mal aufgreifen und überlegen, wer was mit dem Output der KI machen würde:

    Entweder handelt es sich um eine Person, die in der Sprache sattelfest genug ist, um den Kontext einzuordnen und Fehler zu erkennen. Diese bräuchte (und würde) nicht die KI bemühen.

    Oder es handelt sich um eine Person, die eben nicht sattelfest in der Sprache ist und deshalb die KI fragt. Sie könnte den Fehler nicht erkennen und würde damit einen Vorschlag einbringen, der wiederum von anderen korrigiert werden müsste.

    Daraus ergibt sich: Wenn Vorschläge aus der KI ausschließlich von Personen gepostet werden, die die Richtigkeit nicht nachhalten können, dann ergibt sich statt eines Mehrwerts fürs Forum ein Qualitätsverlust, gegen den die Nutzer permanent anarbeiten müssten.

    #45Author Pottkieker (871812) 13 Feb 23, 16:18
    Comment

    ein Qualitätsverlust, gegen den die Nutzer permanent anarbeiten müssten.


    Eben. Und die werden meiner Beobachtung nach ohnehin immer weniger. Gerade die, die entweder sehr gut in D oder E sind, und ohnehin die wenigeren, die in beiden Sprachen, in der Regel, gut sind, sehr gute Beiträge bringen. (Ein eigenes Thema: schleichender Personalmangel auch bei den Forum-Usern.)

    #46Author Seltene Erde (1378604) 13 Feb 23, 17:00
    Comment

    @#39 sebsn: "...denn man darf nicht vergessen, dass hinter jedem Eintrag mit Sprach-AI ein abwägender Mensch steht, der den Treffer nach bestem Wissen und Gewissen geprüft hat."


    Das ist leider eine völlig falsche Annahme. So funktioniert KI nicht. Im Gegenteil sind die Ergebnisse weder geprüft, noch irgendwie vorhersagbar. Auch die angebliche KI kann selber nicht angeben, wie sie zu einzelnen Aussagen kommt und welche Informationen sie auf welche Weise ausgewertet hat, um zu einer Antwort zu gelangen. Das ist ja gerade der "Witz" an diesen Dingern.


    (Tipp: Stelle ChatGPT die selbe Aufgabe mehrfach. Dazu gibt es sogar einen speziellen Button. Du wirst sehen, dass die Antworten variieren)


    Leider ist zu befürchten, dass unbedarfte Mitleser das nicht wissen. Und dass sie aus der irreführenden Bezeichnung "künstliche Intelligenz" (und der Tatsache, dass deren Ergebnisse hier quasi gleichberechtigt zu den Ergebnissen menschlicher Intelligenz präsentiert werden) diese Ergebnisse sogar für zuverlässiger und besser als menschliche Arbeitsleistung halten. ChatGPT ist ein beeindruckender Textgenerator, gar keine Frage. Aber echte Intelligenzleistungen sind nicht zu erwarten.


    Ganz glashart: Leistungen von sogenannter KI sind ganz grundsätzlich immer nur so gut, wie der reale Mensch, der sie aus seinem eigenen Wissen oder aus sauberer Recherche bestätigt. Deshalb haben sie in diesem Forum allerhöchstens den Wert von Vorschlägen, die anderweitig bestätigt werden müssen. Und dieser Umgang mit KI muss meiner Meinung nach bei jeder Präsentation von "KI"-Fragmenten erkennbar sein.

    #47Author Harald (dede) [de] (370386)  13 Feb 23, 19:44
    Comment

    Ich glaube, sebsn meinte es so, dass jeder Beitrag hier im Forum, in dem auf AI-Ergebnisse verwiesen wird, von jemandem eingestellt wird, der dieses Ergebnis vor dem Posten sorgfältig auf Korrektheit überprüft hat. Aber auch das sehe ich nicht; wie schon in #45 geschrieben: Wer das leisten kann, wird gar nicht erst die KI befragen.

    #48Author Pottkieker (871812) 13 Feb 23, 20:07
    Comment
    @48
    ... wer dazu die FREMDE Sprache braucht, bzw. diese nutzen will, was ihm hoffentlich in dieser comunity freisteht, wird u.U. darauf zurückgreifen wollen.

    Oder willst du die Regeln aufstellen :

    "Nur sattelfeste Muttersprachler dürfen sich hier in ihrer Muttersprache äussern." ?
    "ChatGPT in EN ( zB ) dürfen nur Muttersprachler, wenn überhaupt, ins Forum einbringen. (?) ;-)
    - "Er" wird ausserdem die KI befragen wollen, um a) evtl. seinen Horizont zu erweitern und b) um seine Eingabe - wenn nicht zu belegen im klassischen Sinn - zu untermauern ... ODER aber auch c) eine KI-Eingabe KREATIV zu hinterfragen.
    #49Author sebsn (1039076)  13 Feb 23, 20:55
    Comment

    Wer KI braucht, um in der Fremdsprache zu schreiben, sollte in der Tat lieber in der Sprache schreiben, die er/sie sattelfest beherrscht. Hier sind die Antwortenden ja alle zweisprachig. Es gibt keinen Grund, sich in der Fremdsprache einen abzubrechen.

    #50Author Gibson (418762) 13 Feb 23, 21:19
    Comment

    Während ich für meinen eigenen Bedarf (als Inspiration für Formulierungen, als Wörterbuch und für Sprachen, die ich selbst gar nicht oder wenig beherrsche) gelegentlich auf Übersetzungsmaschinen zurückgreife, hat mich ChatGPT kein bisschen beeindruckt. Ich habe einen Test durchlaufen lassen, natürlich zu einem Thema, mit dem ich mich auskannte - mit grauslichem Ergebnis. Immerhin hat sich der Bot entschuldigt, als ich ihn darauf hinwies, dass es im Deutschen nicht drei, sondern vier Kasus gibt.


    Echt jetzt, an solchem Basiswissen scheitert die Künstliche "Intelligenz" schon?


    Allerdings waren die Antworten grammatikalisch, orthographisch und interpunktionstechnisch korrekt - das ist immerhin etwas, was nicht alle hier Beitragenden beherrschen ...

    #51Author Raudona (255425) 13 Feb 23, 21:35
    Comment

    #49 (Edit, da Gibson und Raudona schneller getippt haben als ich)

    Ich will keine Regeln aufstellen, das überlasse ich denen, die hier das Hausrecht haben. Es gibt aber meines Wissens tatsächlich eine ungeschriebene Übereinkunft, dass jeder in den Diskussionen in seiner Muttersprache schreibt, wenn er sich nicht gerade im Crossover Chat bewegt; das schließt natürlich Passagen in der jeweiligen Fremdsprache nicht aus, zu denen jemand eine Frage hat.

    b) um seine Eingabe - wenn nicht zu belegen im klassischen Sinn - zu untermauern

    Meine eigene Annahme mit etwas untermauern zu wollen, das ich wiederum auf Basis eigener Annahmen auf seine Korrektheit prüfen muss, finde ich - sagen wir mal: kreativ.

    Zu Deinen Punkte a) und c) nur so viel: Wer sich hier an Sprachdiskussionen beteiligt oder Hilfe bei Übersetzungen und Verständnisfragen anbietet, wird in dem Moment weder seinen Horizont erweitern, noch eine KI auf Herz und Nieren prüfen wollen, ich glaube, da hast Du keine sehr zutreffende Vorstellung von denen, die das hier machen.

    #52Author Pottkieker (871812)  13 Feb 23, 21:37
    Comment
    #52 pottkieker
    Es wird ja immer krauser! - Dein letzten Absatz vor allem spricht so sehr für sich, dass ich mir echt nicht die Mühe machen muss, den psychologisch aufzuschlüsseln. Die Reime, die man sich ohne weiteres darauf machen kann, sind quasi ... hm ... ich sag mal ... nicht jugendfrei. Fazit : Geht's noch? ;-)
    [ Nicht "jugendfrei" in diesem Sinne war auch mein "Forumshitler" übrigens, den ich offiziell zurücknehme, nicht dass der Arme hier auch noch aufgewärmt wird; "Forumspolizei" hätte es auch getan.
    #53Author sebsn (1039076) 14 Feb 23, 04:02
    Comment
    #51 Raudona
    Die Grammatik am reverso, linguee u. ChatGPT Gebrauch interessiert mich auch in erster Linie.
    #54Author sebsn (1039076) 14 Feb 23, 04:05
    Comment
    #50 gibson
    "Es gibt keinen Grund, sich in der Fremdsprache einen abzubrechen."

    Es soll Leute geben, die was dazulernen wollen.
    #55Author sebsn (1039076) 14 Feb 23, 04:08
    Comment

    Die Grammatik am reverso, linguee u. ChatGPT Gebrauch interessiert mich auch in erster Linie.


    Ja, dann orientiere dich doch daran (insbesondere an der Zeichensetzung).


    Du kannst aber natürlich auch einfach in den Duden oder Wahrig (für Deutsch) und in den Merriam-Webster, Collins oder das Oxford- oder Cambridge-Wörterbuch schauen.

    #56Author Raudona (255425) 14 Feb 23, 08:52
    Comment

    #50 Gibson: [jeder] "sollte in der Tat lieber in der Sprache schreiben, die er/sie sattelfest beherrscht." [...] "Es gibt keinen Grund, sich in der Fremdsprache einen abzubrechen."


    #55 sebsn: "Es soll Leute geben, die was dazulernen wollen."


    Sicher. Aber nicht in fremden Fäden und auf dem Rücken der dortigen Fragesteller. Wenn Du Deine Sprachkenntnisse oder sonst etwas ausprobieren möchtest, kannst Du das im Quasselzimmer tun. Beachte dabei bitte, dass Du gleichzeitig (willentlich oder nicht) Deine sozialen und kommunikativen Kompetenzen ausprobierst.


    Viel Glück dabei!

    #57Author Harald (dede) [de] (370386)  14 Feb 23, 10:25
    Comment

    Neben den unterschiedlichen Vorstellungen davon, in welchem Bezug LEO/die Wörterbücher/die Foren idealerweise zu ChatGTP/ AI stehen, lese ich hier immer wieder die Wörter Respekt / respektieren, hauptsächlich eingebracht von @sebsn. Und anhand des Verlaufs der Diskussion frage ich mich, wie einige Formulierungen hier einzuordnen sind (allein #13 – ist das eigentlich alles ernstgemeint?). Was ist deine Vorstellung von Respekt und wie funktioniert das für dich reziprok, so ganz konkret?


    Wenn ich es richtig verstanden habe, ist es für dich z. B. respektvoll, wenn jemand „einfach keinen Bezug auf Beiträge, die AI Bezüge beinhalten“ nimmt. 

    Und im Gegenzug? Also woran erkenne ich, dass du den Respekt, den du von anderen einforderst, anderen entgegenbringst?


    Ich konnte es mir übrigens nicht verkneifen, ChatGPT zu Rate zu ziehen. Ich soll das hier antworten (mit DeepL übersetzt):

    „Vielen Dank, dass Sie Ihre Gedanken und Meinungen über die Verwendung von KI-generierten Übersetzungen im Forum geteilt haben. Ich verstehe, dass es unterschiedliche Meinungen zu diesem Thema gibt, und es ist wichtig, dass alle Mitglieder der Gemeinschaft die Ansichten der anderen respektieren.


    Als Moderatorin möchte ich alle daran erinnern, in respektvoller und professioneller Weise zu kommunizieren und Ausdrücke zu vermeiden, die als beleidigend oder belästigend angesehen werden könnten. Dies wird dazu beitragen, ein positives und integratives Umfeld für alle Mitglieder der Gemeinschaft zu schaffen.“

    [Dein Wort in Gottes Ohr, ChatGPT ;-)]


    Was die Verwendung von KI-generierten Übersetzungen betrifft, so möchte ich alle Mitglieder dazu auffordern, die Grenzen und Stärken dieser Übersetzungen zu berücksichtigen und sie eher als Referenz oder Ausgangspunkt zu verwenden, denn als endgültige Antwort.


    Ich danke Ihnen für Ihre Mitarbeit und Ihr Verständnis“

    (nach dem Absenden noch ergänzt)

    #58Author Doris (LEO-Team) (33)  14 Feb 23, 10:46
    Comment
    zwischendurch ein bisschen aktuelle info:

    "Google Panics Over ChatHPT"
    https://youtu.be/Nh5i5obZ8OY
    #59Author sebsn (1039076) 14 Feb 23, 10:49
    Comment
    #58 Doris LEO-team

    "Wenn ich es richtig verstanden habe, ist es für dich z. B. respektvoll, wenn jemand „einfach keinen Bezug auf Beiträge, die AI Bezüge beinhalten“ nimmt.

    Und im Gegenzug? Also woran erkenne ich, dass du den Respekt, den du von anderen einforderst, anderen entgegenbringst?"

    1. Absatz : (?) Es muss nicht jeder auf jeden Beitrag Bezug nehmen. Anstatt wie gesagt zum 50. Mal ohne Sachbezug diskreditierend ( incl. persönlicher Anmache ) mit Grundsatzdiskussionen den Verlauf einer Diskussion zu stören, steht es jedem frei solche Beiträge zu ignorieren, die AI-Hinweise/Eingaben enthalten. Damit respektiert er die Diskussion selbst und nimmt die Zeit u. Aufmerksamkeit der Leser nicht für seinen nicht sachbezogene Geltungsdrang in Anspruch.

    Absatz 2 : Den Respekt erkennst Du daran, dass ich das Einbringen von AI-Ergebnisse a) auf Sachbezogenheit prüfe, b) diese sauber ausweise, c) sie nicht als Beleg hinstelle.

    #60Author sebsn (1039076) 14 Feb 23, 11:03
    Comment

    @#59:


    *soifz*.


    Es ist in keinster Weise sachdienlich zum Thema dieses Fadens, welche Probleme Google mit ChatGPT hat oder haben könnte.

    #61Author Harald (dede) [de] (370386)  14 Feb 23, 11:08
    Comment

    @sebsn: Und was sind die Konsequenzen, wenn jemand sich nicht zurückhält und sich zu deinen eingebrachten AI-Ergebnissen äußert? Woran erkenne ich (oder andere) eine respektvolle Antwort deinerseits?

    #62Author Doris (LEO-Team) (33)  14 Feb 23, 11:11
    Comment
    #62 @ Doris LEO-team

    Das ist genau des Pudels Kern! Wenn jemand auf SprachAI-Beiträge KRITISCH in der zur Debatte stehenden SACHE reagiert, ist das ein Beitrag zur Diskussion. // Wenn jemand mit pauschalem mäh-mäh-mäh ohne Sachbezug und vielleicht noch persönlich diskreditierend auf das Einbringen von AI-Beiträgen reagiert, ist das KEIN Beitrag zur Diskussion und stört ...
    #63Author sebsn (1039076)  14 Feb 23, 11:25
    Comment

    @sebsn: was passiert dann mit deinem Respekt?

    #64Author Doris (LEO-Team) (33)  14 Feb 23, 11:28
    Comment
    @Harald
    Ich schätze Du hast Dir das Video nicht angesehen. Das Thema berührt zentral diesen Faden, weil es darum geht, dass die Suchmaschine Bing mit ChatGPT zusammengeschaltet werden soll.
    Wenn das nicht sachbezogen ist, dann seufz! von meiner Seite ;-)
    -
    Interessiert dich das gar nicht ? ... in diesem Zusammenhang hier ...
    #65Author sebsn (1039076) 14 Feb 23, 11:35
    Comment
    #64 Doris LEO-team
    ... äh ... ? nicht ganz so kryptisch bitte!

    ... du meinst hoffentlich nicht, der Respekt vor pauschalen mitunter uninformierten einzelnen Gegnern von Sprach-AI muss darin bestehen AI-Ergebnisse nicht einzubringen, weil es ja sein könnte, dass das den ein oder anderen stört?
    Wie gesagt : Es tut keinem Weh, wenn solche Eingaben ausgewiesen sind.
    -
    Es stört hier so manchen manches, wie ein Vorredner bemerkt hat und man muss das halt hinnehmen ...
    -
    Ein sauberes, menschlich überprüftes und ausgewiesenes linguee-Ergebnis kann man interessiert zur Kenntnis nehmen oder auch nicht und SACHBEZOGEN kritisieren. Es besteht aber keine Notwendigkeit NUR pauschal mitzuteilen, dass man von linguee nichts hält.
    #66Author sebsn (1039076)  14 Feb 23, 11:51
    Comment

    Also mir reichts jetzt schon beim Mitlesen. Da ich nicht zum LEO-Team gehöre, muss ich ja nicht so höflich sein, also mache ich's kurz: sebsn, dein süffisanter Ton nervt. Wer Respekt erwartet, muss auch selbst respektvoll bleiben.

    #67Author tigger (236106) 14 Feb 23, 11:59
    Comment

    ... du meinst hoffentlich nicht, der Respekt vor pauschalen mitunter uninformierten einzelnen Gegnern von Sprach-AI muss darin bestehen AI-Ergebnisse nicht einzubringen, weil es ja sein könnte, dass das den ein oder anderen stört? 

    Nein, das meine ich nicht. Aber ich erwarte nicht, dass sich alle „Gegner von Sprach-AI” an deine Forderung halten werden, AI-Ergebnisse nicht zu kommentieren. Weshalb ich mich frage, welche Auswirkungen das auf den reziproken Respekt haben wird. Was ich aktuell lese sind meiner Einschätzung nach Kommentare, die eher auf die persönliche Ebene abzielen und wenig respektvoll formuliert sind, sprich ich vermisse Formulierungen, die auf einen höflichen Umgangston schließen lassen.



    Übrigens hier nochmal ein Auszug aus unserer Netikette bezüglich Respekt:

    LEOs Netikette

    Für ein gutes Miteinander erwarten wir, dass du

    • auf einen höflichen, im Idealfall kollegialen Umgangston achtest
    • unterschiedlichen Meinungen, Präferenzen, Weltanschauungen, Lebensmodellen und Überzeugungen mit Toleranz begegnest und die Grundregeln des Respekts einhältst
    • Auseinandersetzungen auf der sachlichen Ebene führst und von beleidigenden Kommentaren, die auf eine andere Person abzielen, absiehst.

    Das gilt natürlich für alle.

    #68Author Doris (LEO-Team) (33)  14 Feb 23, 12:02
    Comment

    Nach wie vor ist mir nicht klar, was die Erwähnung von Linguee und Co in die Diskussion bringt.


    Fall 1: Linguee schlägt Müll vor. Man stellt es im Faden nicht ein.


    Fall 2: Linguee schlägt etwas brauchbares vor, wie der kompetente Nutzer erkennt. Dann stellt es der kompetente Nutzer einfach als Vorschlag ein, in seinem kompetenten Namen. Was bringt ein Zusatz wie "Das ist zwar von Linguee, aber ich habe das geprüft und für gut befunden, also schlage ich es hier vor" an Mehrwert?


    Fall 3: Man ist nicht sicher genug in der Sprache, um den Vorschlag beurteilen zu können. Dann sollte man einfach gar nicht posten. (MT kann der Fragenden ja schließlich selbst nutzen, wenn ihm oder ihr danach ist.)

    #69Author Gibson (418762) 14 Feb 23, 12:07
    Comment
    @Doris LEO-team

    " Aber ich erwarte nicht, dass sich alle „Gegner von Sprach-AI” an deine Forderung halten werden, AI-Ergebnisse nicht zu kommentieren. "

    Das erwarte ich auch nicht, ganz im Gegenteil !. Es gibt verschiedene Arten sachlich darauf zu reagieren :

    - Ich kritisiere die Eingabe, weil sie sachlich, grammatikalisch oder sonstwie Makel aufweist und knüpfe kritisierend daran an, womit ich die sachliche Diskussion weiterbringe.
    - Ich nehme die Eingabe positiv zur Kenntnis und beziehe mich darauf ohne weitere Kritik.
    - Ich ignoriere die Eingabe weil ich prinzipiell nichts von Sprach-AI halte.

    Alles vollkommen in Ordnung.
    NICHT in Ordnung und disrespectful ist:

    - Ich kritisiere nicht die Eingabe, sondern nur die Tatsache, dass sie aus einer Sprach-AI stammt und respektiere damit NICHT, dass sich ein anderer Mühe und Gedanken gemacht hat. Weiters kommuniziere ich implizit, dass ich mir nicht die Mühe mache den Faden inhaltlich weiter zu bringen, sondern störe und belästige andere Unbeteiligte, die an der Sache interessiert sind und nicht daran, dass ich nichts von Sprach-AI halte.
    #70Author sebsn (1039076) 14 Feb 23, 12:20
    Comment
    #69 @Gibson
    Fall 2


    erledigt ja am elegantesten das Problem ;-)
    #71Author sebsn (1039076) 14 Feb 23, 12:24
    Comment

    Linguee nennt m.W. zu jedem seiner Textauszüge Quellen, im Gegensatz zu ChatGPT. Aus meiner Sicht spricht nichts dagegen, über Linguee nach Belegen zu suchen und die dann, falls geeignet, auch hier vorzustellen; natürlich nicht mit dem Vermerk: "Guckt mal, Linguee sagt...", sondern "hab folgenden seriösen Link über Linguee gefunden:...".


    Was ChatGPT produziert, kann dagegen hier nicht zielführend sein -- dass ChatGPT eine bestimmte Formulierung verwendet, heißt ja nur, dass irgendwer irgendwann etwas Ähnliches geschrieben hat, sagt uns aber nicht, in welchem Kontext, auf welcher Stilebene, wie kompetent der-/diejenige war usw.


    IMHO sollte es deshalb fürs erste dabei bleiben, dass ChatGPT nicht als Quelle gilt (und das auch gesagt werden darf, selbst wenn Sebsn das dann wieder als "mähmähmäh" abkanzeln muss).

    #72AuthorMr Chekov (DE) (522758)  14 Feb 23, 12:25
    Comment
    ... dann also besser nach o.g.
    "Modell Fall 2" vorgehen ;-)


    #73Author sebsn (1039076) 14 Feb 23, 12:32
    Comment

    Genau.

    #74AuthorMr Chekov (DE) (522758) 14 Feb 23, 12:33
    Comment

    Heißt das, wir haben uns nun darauf geeinigt, dass ChatGPT nicht als Quelle taugt, weil es keine Belege liefert? Damit kann ich gut leben.

    #75Author Raudona (255425) 14 Feb 23, 12:34
    Comment
    @Raudona

    ... nein, es heisst, dass ChatGPT-Einbringer sich auf guerilla-Taktiken verlegen müssen, weil sonst die Knute der ChatGPT/linguee/deepl/reverso-Polizei ausgepackt wird.

    Hab ich noch was vergessen, was auf dem Index steht?

    #76Author sebsn (1039076) 14 Feb 23, 12:43
    Comment

    weil sonst die Knute der ChatGPT/linguee/deepl/reverso-Polizei ausgepackt wird


    Das macht nichts; wie du hier demonstriert hast, packst du ja ganz gern mal deine eigene verbale Knute aus und wirst das vertragen können.

    #77AuthorMr Chekov (DE) (522758) 14 Feb 23, 12:47
    Comment

    .. nein, es heisst, dass ChatGPT-Einbringer sich auf guerilla-Taktiken verlegen müssen

    Sie könnten auch akzeptieren, wenn sich herauskristallisiert, dass Übersetzungsvorschläge aus der AI mehrheitlich nicht gewünscht sind, und darauf verzichten.

    #78Author Pottkieker (871812) 14 Feb 23, 13:01
    Comment
    genau, checkov,

    ... hier schon, aber ich drohe nicht öffentlich an, dass ich weitere Fadenverläufe stören werde als selbsternanntes Sondereinsatzkommando.

    - Du hast kein Problem mit der Sache, sondern mit etwas ganz Anderem ... ( was hier nun wirklich nicht ( mehr ) breitgetreten werden muss ...
    #79Author sebsn (1039076) 14 Feb 23, 13:20
    Comment
    @pottkieker #78

    "mehrheitlich unerwünscht" ???
    wann ist die Abstimmung ?
    #80Author sebsn (1039076)  14 Feb 23, 13:22
    Comment

    Wie viele Teilnehmer in diesem Faden sprechen sich komplett oder eher dagegen aus? Wie viele dafür? Das ergibt für mich schon eine klare Tendenz.

    #81Author Pottkieker (871812) 14 Feb 23, 13:46
    Comment

    @sebsn: Vielleicht möchtest Du Dir und dem Forum freiwillig eine Abkühlphase von einem oder zwei Tagen gönnen? Das könnte eine sehr sinnvolle Maßnahme sein. Mir will scheinen, dass es bald (™️) ins Persönliche abgleiten könnte.

    #82Author Harald (dede) [de] (370386)  14 Feb 23, 13:54
    Comment

    Es geht doch die ganze Zeit nur darum, dass sebsn kolossal empört ist über diesen related discussion: faktisch vorhanden / faktisches Vorhandensein - #4 einen Kommentar von Mr Chekov, und deswegen ein Riesenfass aufmacht.

    Ich mach mal Popcorn für den Fall, dass sebsn mit Rominara aneinandergerät...


    Tatsächlich ist doch hier in #69 und #72 alles gesagt: "Automatische" Thesauren fallweise hilfreich, KI-Chatbots vorerst eher nicht.

    #83Author tigger (236106) 14 Feb 23, 13:57
    Comment
    @pottkieker

    ... wie wolltest du der rasanten Weiterentwicklung gerecht werden? - Abstimmung jeden Monat ?
    -
    NeeNeee, das war nicht ganz ernst gemeint, denk nach, was das für Folgen hätte hier ! - Ich schätze mal die LEO - Leute werden ausser der Empfehlung sauber auszuweisen nichts verlauten lassen.
    #84Author sebsn (1039076) 14 Feb 23, 13:58
    Comment
    ... ach "faktisch vorhanden" - da steh ich als Philosoph doch drüber, zumal andere Stichhaltiges dazu geliefert haben.
    Es spricht einfach für sich wenn Unbelehrbare sich outen.
    #85Author sebsn (1039076) 14 Feb 23, 14:01
    Comment

    Ich habe mal ChatGPT gefragt, ob man Trolle füttern sollte. Ich kenne zwar die Antwort längst, aber ich wollte sehen, was die KI dazu sagt. Bitte sehr:


    Nein, man sollte Trolle nicht füttern. Das Füttern von Trolle (sic!) kann ihre negative Verhaltensweise bestärken und zu weiteren unangemessenen Handlungen führen. Es ist oft besser, sie zu ignorieren oder angemessen zu moderieren, um sicherzustellen, dass sie keinen Schaden anrichten.

    #86Author Jalapeño (236154) 14 Feb 23, 14:01
    Comment

    "Ich mach mal Popcorn für den Fall, dass sebsn mit Rominara aneinandergerät..." 🤣

    #87Author B.L.Z. Bubb (601295) 14 Feb 23, 14:03
    Comment

    Begeistert weiteres popcorn stifte... 🙂

    #88Author wienergriessler (925617) 14 Feb 23, 14:05
    Comment
    @jalapeno

    Das hat's bei mir ausgespuckt - lol :
    ""Troll" hat in verschiedenen Kontexten unterschiedliche Bedeutungen. Im Allgemeinen wird der Begriff verwendet, um jemanden zu beschreiben, der absichtlich provokative oder beleidigende Kommentare in Online-Diskussionen oder sozialen Medien postet, um Aufmerksamkeit zu erregen oder andere zu ärgern.

    Es ist nicht ratsam, Trolle zu füttern, indem man auf ihre Kommentare antwortet oder sich in eine Diskussion mit ihnen einlässt. Dies kann dazu führen, dass sie sich ermutigt fühlen, weiter zu provozieren oder andere zu belästigen. Stattdessen ist es oft besser, ihre Kommentare zu ignorieren oder zu blockieren, um ihre Auswirkungen zu minimieren."
    #89Author sebsn (1039076) 14 Feb 23, 14:07
    Comment

    sebsn, Dein selbstherrliches Auftreten und Deine Weigerung, geschriebene und ungeschriebene Regeln des LEO-Forums zur Kenntnis zu nehmen (Könnte jemand ChatGPT mal fragen, welche Verhaltensweisen für jemanden empfohlen werden, der neu in einem Diskussionsforum ist?), macht es mir sehr schwer, Dir in Grenzen zuzustimmen, aber ich versuche trotzdem mal, über meinen Schatten zu springen:


    Für mich ist es nicht das Ende der Welt, wenn jemand in einer Diskussion zu einem sprachlichen Thema eine Antwort von ChatGPT zitiert. Ich wünsche mir in solchen Fällen aber, dass das nicht kommentarlos passiert. Ich erwarte mir zwar von derartigen Antworten nicht viel, aber ich sehe auch keinen Grund, das zu verbieten. Nach meinem Eindruck fordert das auch niemand. Gewünscht wird allerdings eine Zurückhaltung und Selbstbeschränkung.


    Andererseits sollte auch Deine Welt nicht untergehen, wenn andere regelmäßig ihr Unbehagen über die indirekte Teilnahme von ChatGPT an LEO-Diskussionen äußern.


    Ich hoffe aber sehr, dass sich LEO nicht dahin entwickelt, dass es zu jeder sprachlichen Anfrage erst das Ergebnis einer Googlesuche, dann die Übersetzungsvorschläge verschiedener Online-Übersetzer und schließlich noch einen zusammenfassenden Kommentar von ChatGPT gibt. In Einzelfällen kann jede dieser Aktionen sinnvoll sein, insbesondere wenn sie dann noch von Menschen kommentiert wird, aber wenn ein Großteil der Diskussionen so ablaufen würde, wäre das Forum für mich deutlich weniger attraktiv und im Extremfall sogar wertlos.

    #90Author harambee (91833)  14 Feb 23, 14:21
    Comment

    Wat harambee sacht.

    #91Author B.L.Z. Bubb (601295) 14 Feb 23, 14:30
    Comment

    Jau. Un de Düwel.

    #92Author Raudona (255425) 14 Feb 23, 14:54
    Comment

    Ich finde ja, dass Doris jetzt hier zusperren kann...

    #93AuthorMr Chekov (DE) (522758) 14 Feb 23, 15:00
    Comment

    Erst ChatGPT fragen ...

    #94Author mbshu (874725) 14 Feb 23, 15:36
    Comment

    Trifft es eigentlich zu, dass "ChatGPT" im Französischen "die Katze, die furzt" bedeutet? Frage für 1 Freumd ...

    #95Author B.L.Z. Bubb (601295) 14 Feb 23, 15:37
    Comment

    Nein.

    G = j'ai = ich habe

    #96Author penguin (236245) 14 Feb 23, 16:00
    Comment

    Naja, fast 😉

    #97Author B.L.Z. Bubb (601295) 14 Feb 23, 16:04
    Comment

    @94: 🤣

    #99Author eastworld (238866) 14 Feb 23, 16:13
    Comment
    #94 soll doris den chat schliessen?

    "Ich als KI habe keine Informationen darüber, wer "Doris" ist oder welcher LEO-Forumschat gemeint ist. Daher kann ich diese Frage nicht beantworten. Es ist jedoch wichtig, dass Foren- oder Chat-Administratoren Maßnahmen ergreifen, um sicherzustellen, dass ihre Plattformen sicher und respektvoll bleiben, wenn es Störungen oder Belästigungen gibt. Die Schließung eines Forums oder Chats sollte jedoch nur als letztes Mittel in Betracht gezogen werden, nachdem alle anderen Optionen zur Verbesserung der Situation erschöpft sind."

    [ ChatGPT ]
    #100Author sebsn (1039076) 14 Feb 23, 16:35
    Comment

    Ich möchte kurz vor Schließung des Fadens noch allen für ihre Beiträge danken.




    ... wobei die KI eindrucksvoll bewiesen hat, dass sie und ihre "Aussagen" außerhalb des Quasselzimmers zumindest vorerst nicht ernsthaft zu gebrauchen sind ...


    #101Author no me bré (700807)  14 Feb 23, 18:42
    Comment

    @no me bré: was sind deine „Beweise“ dafür, dass die Aussagen nicht ernsthaft zu gebrauchen sind?


    Hat noch jemand was anderes zu dem Thema? Ich finde es sehr anstrengend und gleichzeitig äußerst spannend, darüber nachzudenken und wir werden uns auch noch intern austauschen und unsere Richtlinien in Bezug auf den Umgang mit AI im Forum ggfs. ergänzen.

    #102Author Doris (LEO-Team) (33) 15 Feb 23, 08:31
    Comment

    Ich bin nicht no me bré, würde aber sagen, KI ist nicht ernsthaft für die Suche nach korrekten Übersetzungen, die ja hier im Forum möglichst belegt werden sollten, zu gebrauchen, weil sie bisher nur wiederkäut (? widerkäut?), was irgendwo im Netz zu finden ist, und keine adäquate Möglichkeit hat, das nach Sinn, Kontext, Soziolekt und Intention der Mitteilung auszuwählen -- also keinen Zugang zu den meisten Fähigkeiten hat, die das Übersetzen ausmachen, oder allgemeiner das Verfassen von Texten ausmachen. Sie gibt uns Menschen auch keine Möglichkeit, das für sie zu tun. Daher mein Vergleich mit dem Papagei in einem anderen Faden.

    #103AuthorMr Chekov (DE) (522758)  15 Feb 23, 08:55
    Comment

    Dem stimme ich zu. In vielen Standardfällen mag KI brauchbare Ergebnisse liefern, aber wenn "Drehbeginn" (in einem Drehbuchvertrag) mit "start of rotation" übelsetzt wird, dann weiß ich, dass es noch Grenzen der Brauchbarkeit gibt.

    #104Author B.L.Z. Bubb (601295) 15 Feb 23, 08:57
    Comment

    Wenn keine fachkundige Antwort bei LEO auf eine Frage gegeben wird, die KI aber eine zumindest schlüssige Antwort kennt, sollte man die Antwort bei LEO veröffentlichen dürfen, solange man auf die Quelle hinweist,


    Ein typisches Beispiel hierfür ist

    Dorn zum Aufstapeln von (Eisenbahn-)Rädern - Englisch gesucht: Englisch ⇔ Deutsch Forum - leo.org


    Ich kann nicht beurteilen, ob die Antwort stimmte, aber kein englischer Muttersprachler hat widersprochen. Deshalb ist diese eingeschränkt brauchbare Antwort im Zweifel besser als gar keine.

    #105Author wienergriessler (925617) 15 Feb 23, 09:09
    Comment

    Ich finde wienergriesslers Ansatz (#105) in seiner Pragmatik überzeugend.

    #106Author Thirith (1037221) 15 Feb 23, 09:15
    Comment

    Bei allem Respekt: Ich finde in Wienergriesslers Faden keine Quelle, nur den Hinweis "von Chat-GPIrgendwas" und die Angabe, was er dieses System ungefähr gefragt hat. Mir würde das nicht genügen, jedenfalls nicht, wenn's drauf ankommt.


    Bei LEO werden sie schon wissen, was sie tun, aber mir würde Sorgen machen, was jemand hier oder in einem anderen Faden zu bedenken gab: Qualitätsverlust fürs Forum.

    #107AuthorMr Chekov (DE) (522758)  15 Feb 23, 09:59
    Comment


    Ich kann mich den Argumenten, wie sie beispielsweise in #103 und #107 aufgeführt werden, nur anschließen ...


    Alles was ich bisher als KI-Output z.B. hier related discussion: Der Textgenerator GPT3 gesehen hab, wiederholt erst mal nur weit ausholend die gestellte Frage (das ist schon mindestens die Hälfte der "Antwort") und gibt dann Allgemeinplätze zum Besten - so auch hier in #100 ... das ist für mich nur ermüdend, bringt mir aber keine Erkenntnis (außer über die antwortende Maschine selbst) ... und ist schon nach einer halben Seite Lektüre noch nicht mal mehr unterhaltend ...


    ... und wenn ich die korrekte Bezeichnung für diesen speziellen Dorn (Link zur Anfrage in #105 hier) nicht kenne, dann würde ich eher die Umschreibung, die aus der Fragestellung stammt, verwenden - "device used for storing railway wheels" (oder stacking) - als einen nicht bestätigbaren Begriff ... Pragmatik hin oder her ... die Abwesenheit von muttersprachlicher Bestätigung in einer Leo-Anfrage ist für mich in dem Fall eher der Tatsache geschuldet, dass sich das noch kein Eisenbahntechniker angesehen hat ...


    Ähnlich den Fundstellen bei Linguee (da werden wenigstens Quellen angegeben und teils überprüfbar verlinkt, die wesentliche Textstelle jeweils hervorgehoben), betrachte ich sowas höchstens als Hinweis, der zu verifizieren ist ... vorausgesetzt, es ist klar, dass das noch bestätigt werden muss ...



    Das mag in einigen Jahres anders aussehen und auch meine Meinung dazu eine andere sein ...


    #108Author no me bré (700807) 15 Feb 23, 11:09
    Comment

    re #105-108: Ob die in #105 genannte Antwort "eingeschränkt brauchbar" ist, muss man natürlich selbst noch prüfen. Das muss man aber auch bei jeder anderen Antwort, wenn's drauf ankommt, egal wie viele Links angegeben sind und von wem sie kommt.


    Die ChatGPT-Antwort ist im Grunde auf dem gleichen Niveau wie eine völlig geratene Antwort, mit einem Kommentar wir "Ich bin überhaupt nicht sicher, habe das aber glaube ich mal gehört." Aber auch solche Antworten sind hier ja nicht verboten und können auch hilfreich sein, als neuer Ansatz für die eigene Recherche.

    #109Author Mattes (236368)  15 Feb 23, 11:18
    Comment

    Aber auch solche Antworten sind hier ja nicht verboten und können auch hilfreich sein, als neuer Ansatz für die eigene Recherche.


    Genau so sehe ich das auch. Der Anfrager wollte "mandrel" verwenden, fand dafür aber wohl keinen Beleg. Eine als solche gekennzeichnete KI-Auskunft ist besser als gar keine Antwort und nicht schlechter als diverse Antworten, die hier recht häufig ohne Beleg gegeben werden und denen man auf den ersten Blick ansieht, dass sie höchstwahrscheinlich nicht stimmen.

    #110Author wienergriessler (925617) 15 Feb 23, 11:26
    Comment

    Ich halte "So die testhalber eingeholte Antwort von chatgtp -ohne Garantie-." auch nicht für ausreichend. Stoney zum Beispiel ist fest davon überzeugt, das der Google translator nahezu perfekt ist, und viele Fragende sagen nach jeder ersten Antwort "Super, danke", auch wenn die Antwort, wie sich dann ein paar Beiträge später herausstellt, völlig falsch ist. Die meisten Fragenden sind ja keine Linguisten. Sie glauben, wenn bei LEO jemand etwas vorschlägt, wird das schon stimmen.


    Wenn KI, dann hätte ich persönlich das lieber deutlicher formuliert, z.B.


    Ich kenne mich nicht aus und habe einen Chatbot gefragt, der hat xxx vorgeschlagen. Vielleicht ist das ein Anhaltspunkt zum Googeln, aber die sind noch notorisch unzuverlässig. Muss überprüft werden.


    Dass kein englischer Muttersprachler widersprochen [hat], ist wenig überraschend, da an dem Faden gar keiner teilgenommen hat.



    #111Author Gibson (418762) 15 Feb 23, 12:15
    Comment

    Für meine Aussage, eine als solche " mit KI-Unterstützung" gekennzeichnete Antwort sei mangels anderer Wortmeldungen nicht schlechter als manche hier "normal" gegebene Antwort, verweise ich beispielhaft auf

    Rundum-Kugelablage - Englisch gesucht: Englisch ⇔ Deutsch Forum - leo.org.


    Ob die Antwort im nach vielen Jahren wiederbelebten Faden richtig sein könnte (peripheral), kann man nur raten.

    #112Author wienergriessler (925617) 15 Feb 23, 13:19
    Comment

    Dein Argument ist also, dass es auch so schon viele wenig hilfreiche Antworten gibt, also spielen ein paar mehr keine Rolle?

    #113Author Gibson (418762)  15 Feb 23, 14:15
    Comment

    Nein,keineswegs. Eine wenig hilfreiche Antowrt gibt ja häufig einen Ansatz zum Nachrecherchieren; so übrigens jetzt auch meine #12 zum Link in #105. Und das Nachrecherchieren sollte dann normalerweise ohne KI geschehen..

    #114Author wienergriessler (925617)  15 Feb 23, 14:19
    Comment

    Eine wenig hilfreiche Antowrt gibt ja häufig einen Ansatz zum Nachrecherchieren; so übrigens jetzt auch meine #12 zum Link in #105.


    Das ist aber doch ein 'Ja' auf meine Frage. Du bezeichnest die #12 ja jetzt selbst so.

    #115Author Gibson (418762) 15 Feb 23, 14:26
    Comment

    Man sehe sich nur aktuell die hier ablaufende Diskussion (ohne KI) an:

    Engaging - Deutsch gesucht: Englisch ⇔ Deutsch Forum - leo.org



    Man kann nicht ernsthaft sagen, hier werde präzise eine Frage gestellt und ebenso präzise geantwortet. Diese Form der Beiträge bei LEO doch durchaus üblich. Eine KI-Antwort würde ich hier nicht geben wollen, weil schon genug mehr oder weniger Brauchbares geantwortet wurde.


    #116Author wienergriessler (925617) 15 Feb 23, 14:33
    Comment

    In diesem länglichen Faden dreht sich viel zu viel um die Kommunikation. Die Aspekte einer fachlichen Meinungsbildung - die ja nicht einheitlich sein muss - kommen dabei fast zu kurz.

    Hier finde ich aber tatsächlich die KI-Zitate hilfreich, wie auch manche Zusatzinformationen dazu.


    Zuwenig geht es mir aber um einen Aspekt, den bré im OP noch deutlich hatte, und den ich in der ersten Antwort auch aufnehme, nämlich die Erwartungshaltung der FragestellerInnen. Auch die können wir ja nur herauslesen und vielleicht noch irgendwie unter den hier Teilnehmenden erfragen, was aber wahrscheinlich keine statistische Repräsentativität beanspruchen darf.


    Dennoch möchte ich, nachdem die Diskussion so abgebogen ist, gern noch einmal fragen: von welcher Erwartungshaltung geht ihr aus, und kann diese Erwartung durch KI-Antworten möglicherweise erfüllt werden?

    Meine Meinung dazu steht schon oben in #1 und hat sich bisher nicht geändert.


    PS: Sollte das Popcorn ausgehen, kann ich auch gerne welches nachliefern.

    #117Author reverend (314585) 15 Feb 23, 14:59
    Comment

    Re #116: Ich behaupte ja gar nicht, dass alle Fäden bei LEO so ablaufen, wie man es sich im Forumshimmel wünschen würde. Im Gegenteil. Ich finde, davon gibt es schon genug. Und ich finde den Ansatz, dass GPDings auch nicht schlechter ist als andere schlechte Fäden, zweifelhaft. Ich hätte gerne mehr gute Fäden, nicht mehr mittelmäßige bis schlechte.


    Vor allem finde ich aber, dass wirklich auch für Sprach- und/oder Computerlaien sehr deutlich gemacht werden muss, dass diese "KI" absolut unzuverlässig ist, wenn man es denn unbedingt verwenden möchte. (Mir ist nicht klar, warum, aber jeder geht an Vorschläge anders heran.)


    Re #117: Wieso Popcorn? Der einzige Troll hier ist doch längst weg, und alle anderen führen eine vernünftige Unterhaltung.


    Was die Erwartungshaltung angeht: Ich habe keine. Ich finde, dass die Entwicklung spannend ist/ sein wird, aber im Moment erwarte ich von KI nicht viel mehr, als formal einen geraden Satz hinzukriegen. Beim Inhalt sind wir noch nicht.

    #118Author Gibson (418762)  15 Feb 23, 15:05
    Comment

    Über den formal gerade hingekriegten Satz sind wir ehrlich gesagt längst hinaus: Schreib-KIs wie Chat GPT können deutlich mehr als das leisten, auch wenn es 1) auf die Qualität des Inputs ankommt und 2) ein brauchbarer Text noch nicht ein korrekter Text ist. Für die konkrete Frage, ob KI-produzierte Texte hier eine Rolle spielen, spielt es weniger eine Rolle, aber Beispiele wie die hier erwähnten sind doch um einiges weiter als ein formal korrekt hingekriegter Satz.

    #119Author Thirith (1037221) 15 Feb 23, 15:38
    Comment

    OT: Gibson, Popcorn war nur ein Nachtrag, da ich zwischendurch ja auch nur mitgelesen habe.

    #120Author reverend (314585) 15 Feb 23, 15:53
    Comment

    Mein Problem mit den ChatGPT-Antworten ist, dass sie oftmals zu gut aussehen. Lasst mich das erläutern. Ein Mensch, der sich kaum auskennt, aber helfen möchte, würde eventuell schreiben "Dieser Pin für die Eisenbahnräder heißt Dingsbums, habe ich mal gehört". Der pensionierte Eisenbahner schreibt "Wie ich aus meiner 30-jährigen Erfahrung weiß, ist das ein Schniepelzapf, und diese verschiedenen Klassen gibt es". Jemand anderes schlunzt vielleicht das Ergebnis einer schnellen Google-Suche hin.

    Generell kann man aus der Art der Formulierung oft zu einem gewissen Grade ableiten, wieviel Mühe sich jemand mit der Antwort gegeben hat, und tendentiell geben sich Leute, denen ein Thema am Herzen liegt, mehr Mühe. Ebenso wird Unsicherheit oft markiert.

    Der Bot formuliert alles als gesicherte Erkenntnis in meist wohlgesetzten Worten und längeren Sätzen, und wird daher unterschwellig als Experte wahrgenommen, auch wenn das Ergebnis eher in die Kategorie "geraten" fällt. Und ein Disclaimer davor wird zwar gelesen, aber leicht unbewusst ausgefiltert. Und wenn ein Experte oder ein "Experte" schon geantwortet hat, wird tendentiell nicht mehr so viel versucht.

    #121Author Sven DE (263308) 15 Feb 23, 16:16
    Comment

    #121: Genau. Ich las vor ein paar Tagen die Stellungnahme eines Physiklehrers zu Antworten von ChatGPT; er schrieb, dass die Antworten zu 90% inhaltlich falsch seien, aber in ganzen, grammatikalisch und rechtschreiberisch korrekten Sätzen, während selbst verfasste Antworten oft gestammelt klängen, aber mehr oder weniger inhaltlich sinnvoll seien.


    Aber das ist eh Binsenweisheit jeder Lehrkraft: Wenn eine Hausaufgabe gut geschrieben scheint, ist sie meist irgendwo abgeschrieben (zu meiner Zeit) oder direkt aus dem Internet kopiert.

    #122Author Raudona (255425) 15 Feb 23, 16:23
    Comment

    #121

    The best lack all conviction, while the worst / Are full of passionate intensity. 😀

    #123Author Thirith (1037221)  15 Feb 23, 17:44
    Comment

    Thirith, es ging ja um die subjektive Erwartung. Und die ist bei mir sehr gering. Wenn die Chance, dass der Inhalt stimmt, genauso groß ist wie die, dass alles erfunden ist, fällt das für mich unter "Bei Inhalt sind wir noch nicht".


    (Literatur, per se erfunden, ist noch mal eine andere Geschichte. Das kann ich mir fast noch eher vorstellen. Aber im Moment wird GPDings ja als weises Orakel beworben, das in allen Lebenslagen hilft, soweit ich das verstanden habe.)

    #124Author Gibson (418762) 16 Feb 23, 15:01
    Comment

    Da bin ich mit dir einverstanden. Ich sehe ein Riesenpotential in den gegenwärtigen KI-Tools, aber dieses Potential geht in beide Richtungen, gut und schlecht. Und da die Tools das Potenzial haben, Material in riesigen Mengen zu produzieren, welches dann evtl. wieder als Trainingsdaten für andere KIs verwendet wird, kann ich mir durchaus dystopische Auswirkungen vorstellen. Ich denke einfach, dass sowohl das Potential als auch die Risiken dem halbwegs korrekten Satz z.B. von öffentlich verfügbarer Übersetzungssoftware vor 5-10 Jahren weit voraus sind.

    #125Author Thirith (1037221) 16 Feb 23, 15:10
    Comment

    ...kann ich mir durchaus dystopische Auswirkungen vorstellen


    Ja, ich auch.

    #126AuthorMr Chekov (DE) (522758) 16 Feb 23, 15:42
    Comment

    Ich bin von non me bré auf diese Diskussion hier hingewiesen worden.

    Im das Italienisch - Forum hat er ja die gleiche Frage gestellt.


    Dort gibt es ganze ZWEI ! Antworten ... 🙂


    Es wird hier ganz allgemein übersehen, dass es sich bei chat GPT um eine

    beta Version handelt. Zudem hat dieser bot nicht vollen Zugriff auf das

    Internet. Auf bestimmte Webseiten jedoch schon. Z.B. ist es möglich

    direkt aus dem treccani.it vocabolario zu zitieren, mit dem ich ganz

    gut vertraut bin. Weniger vertraut bin ich mit dem Oxford Advanced

    dictionary, das der bot auch zitieren kann, aber das erschien mir etwas

    dünn, was da kam. Auf das Leo.org Wörterbuch hat er keinen Zugriff,

    zitiert aber lustige Einzelheiten aus den Foren.


    Der bot ist in einer beta Phase und deshalb noch unzuverlässig. Ich

    denke, das wird sich gewaltig ändern, wenn er erst einmal kurzgeschlossen

    ist mit google oder bing.

    Bis dahin und bis zum nächsten release muss man sich noch etwas gedulden.

    Man muss den Umgang mit dem bot lernen, man muss sich damit beschäftigen,

    um etwas davon zu haben.

    Viele der Beiträge hier deuten darauf hin, dass man nur irgendwelche Meinungen

    austauscht, ohne das man sich wirklich damit beschäftigt hat.


    Ich empfinde die Diskussionen in den Englisch Foren teilweise als ziemlich konfus.

    (In den Italienisch Foren gibt es nur weniger Nutzer und da läuft alles sehr ruhig,

    aber eben nicht so reichhaltig wie hier ab)


    Ich verstehe die Erregung hier nicht, denn wenn hier weniger persönlich ad hominem,

    (ein schöner Ausdruck, den ich hier gelernt habe 🙂) gearbeitet würde, dann wäre das Hereinsetzen von

    KI - Ergebnissen überhaupt kein Problem, sondern eben ein Diskussionbeitrag, der

    unter Umständen gerade dann, wenn er Fehler enthalten sollte, neue Perspektiven

    schaffen kann in einem thread.


    Eines wollte ich noch prinzipiell sagen zu dem Begriff "künstliche Intelligenz".

    Es wird immer wieder gesagt oder darauf hingewiesen, dass z.B. chat GPT den

    Sprachaustausch zwischen Mensch und Maschine nur imitiert. Das was die Menschen

    Denken nennen ist noch wenig vertreten. Denken besteht darin, dass man alle

    Berührungsflächen aller Bestandteile dessen was man selber und was andere

    sagen im Blick hat. Das gilt nicht nur für die Logik und Grammatik beim Äussern

    von Gedanken, sondern auch für verschiedene Bedeutungsmöglichkeiten und

    das was italienisch sfumature (Nuance, Beiklang) heisst. Da kann ein bot nicht mithalten und gerade

    diese Fähigkeit zeichnet das menschliche Denken und Sprechen aus.


    Die Erwartungshaltung gegenüber einem bot ist viel zu groß und man lässt sich

    blenden von dem was ein Nutzer hier bemerkt hat, dass die Ergebnisse, die

    das Programm liefert auf den ersten Blick zu gut aussehen. Das soll einen

    aber doch nicht abhalten davon das Programm intelligent zu nutzen. Wenn

    dann ein Nutzer meint, es sei sinnvoll das den anderen hier mitzuteilen, was

    ist denn bitte so schlimm daran?



    #127Author lavli (1382022) 17 Feb 23, 22:49
    Comment

    Das soll einen aber doch nicht abhalten davon das Programm intelligent zu nutzen


    Gut, aber wie sieht eine intelligente Nutzung denn nun aus? Ich hab hier noch keine erlebt.


    Nur ein Dump von ungeprüftem ChatGPT-Output kann's ja wohl nicht sein, wie hier im Faden mehrmals deutlich gemacht wurde. Aber wenn man bei dem Chatdings vorher alles prüfen muss, kann man auch gleich selbst recherchieren -- mit Ergebnissen, die vielleicht auch nicht perfekt sind, aber deren Qualität wenigstens seriös einschätzbar ist.


    (Editiert)

    #128AuthorMr Chekov (DE) (522758)  18 Feb 23, 07:21
    Comment

    re #127 Siehe auch: Übersetzungsvorschläge mit Hilfe von ChatGP...


    ... insbesondere die dort dokumentierten Tests ... da kann man eigentlich nur zu einer Schlussfolgerung wie in #128 kommen ...

    #129Author no me bré (700807)  18 Feb 23, 09:25
    Comment

    Ah! Sorry, Faden verwechselt. Vielleicht sollte Doris hier doch zusperren, damit alles in den anderen Faden übersiedelt.

    #130AuthorMr Chekov (DE) (522758) 18 Feb 23, 09:27
    Comment

    Microsoft hat seinen Chatbot jetzt an die Leine gelegt und die Fragen auf 50 Stück begrenzt. Es kam wohl zu Ausfälligkeiten des Chatbots,


    "Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der »New York Times« gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen."


    Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die Leine - DER SPIEGEL

    #131Author cassandra _1 (1375961) 19 Feb 23, 17:29
     
  •  
  •  
  •  
  •  
  •  
  
 
 
 
 
 ­ automatisch zu ­ ­ umgewandelt