Werbung
LEO

Sie scheinen einen AdBlocker zu verwenden.

Wollen Sie LEO unterstützen?

Dann deaktivieren Sie AdBlock für LEO, spenden Sie oder nutzen Sie LEO Pur!

 
  •  
  • Betrifft

    ChatGPT

    Kommentar

    ChatGPT wurde bereits an der Uni Strasburg zum Problem der Leistungsbeurteilung: 


    Une vingtaine d'étudiants strasbourgeois sont accusés d'avoir fraudé en utilisant ChatGTP.

    C'est une première à Strasbourg. Après une première fraude à l'Université de Lyon mi-janvier, une vingtaine d'étudiants du département d'études japonais de l'Université de Strasbourg sont accusés d'avoir utilisé à leur tour le logiciel d'intelligence artificielle ChatGPT. Un outil qui leur a permis de répondre à une épreuve de QCM portant sur l'histoire moderne et contemporaine du Japon. Citée par Les Dernières Nouvelles d'Alsace, l'administration affirme avoir "eu des preuves de fraude massive par l'utilisation du logiciel ChatGPT et de ressources en ligne". ChatGPT est un outil lancé en novembre dernier par une société co-créée par Elon Musk. Cet assistant repose sur un robot conversationnel capable de comprendre une question posée par un humain et d'y répondre de façon très précise avec un langage proche de celui de l'humain


    Ils ont repassé l'examen en présentiel 

    La direction de l'Université de Strasbourg affirme "qu'il s'agit du premier cas de triche avec ChatGPT. Nous agirons au cas par cas en cas tricherie, selon ce que les textes prévoient actuellement". L'utilisation de ChatGPT est toutefois une "difficulté qui va se poser à tous les secteurs de l'enseignement". En attendant, les élèves accusés de fraude ont repassé l'examen en présentiel cette semaine. 


    https://www.topmusic.fr/une-vingtaine-d-etudi...


    Verfasser mars (236327) 05 Feb. 23, 09:03
    Kommentar
    #1Verfasser no me bré (700807)  05 Feb. 23, 09:30
    Kommentar

    auf Facebook hat ein Kollege ein "Interview" mit ChatGPT wiedergegeben -- zum Thema Ergativität im Georgischen, also ein komplexes grammatisches Phänomen in einer kaukasischen Sprache. Die Antworten waren erstaunlich gut, also sowohl gut formuliert als auch inhaltlich völlig korrekt.

    Ich war platt, muß ich sagen, denn mit dem Phänomen und der Sprache kennen sich wahrlich nicht alle aus. Und so wahnsinnig präsent ist das Thema im Internet auch nicht. Ich würde wirklich gern wissen (ehrlich), woher ChatGPT die Infos hat. Wessen Arbeiten werden da ausgewertet (so viele zum Thema gibt es ja nicht), und wie geht das?


    Also Prüfungen in Essay-Form sind vermutlich in Gefahr, von ChatGPT beeinflußt zu werden.


    Bei meinen Prüfungen zur Grammatik iranischer Sprachen hingegen herrschen noch die Traditionen des Abschreibens und der einfachen Unkenntnis, die von den Arbeiten derjenigen Jungmenschen, die im Unterricht aufgepaßt haben und/oder sich echt Mühe geben, bis jetzt noch einfach zu unterscheiden sind.

    #2Verfasser agi-ari (895343)  05 Feb. 23, 19:56
    Kommentar

    In der FAZ wurde kürzlich in einem Artikel davon ausgegangen dass ab sofort alle wissenschaftlichen Arbeiten wie z.B. Hausarbeiten bei den Jurastudenten und Referendaren, aber auch Dissertationen und Habilitationsschriften nicht mehr zulässig sein dürften, weil sie auch von ChatGPT verfasst werden können.

    Bei den Juristen müssten dann also ab sofort nur noch Klausuren und mündliche Prüfungen zulässig sein, ansonsten kann ChatGPT dahinterstecken.

    Jetzt werden natürlich juristische Probleme kommen:

    Jemand hat mit seiner Dissertation begonnen, darf er jetzt die Diss. zu Ende schreiben?

    Hat er Vertrauensschutz?

    Da kommt Beschäftigung auf Anwälte und Richter zu.

    Aber es gilt auch: zurzeit kann es einfach sein, an ein Prädikatsexamen und an einen Doktortitel zu kommen.

    #3Verfasser pylat (1282188)  06 Feb. 23, 11:43
    Kommentar

    "Plagiatsjäger, neuerdings Plagiatssucher genannt, werden mit dem Programm ihre liebe Mühe haben. Denn im Prinzip ist es nichts anderes als eine riesengroße Plagiatsmaschine ohne erkennbare Autorschaft."

    FAZ v. heute ("Der neue Kollege ChatGPT"): https://m.faz.net/aktuell/karriere-hochschule...


    #4Verfasser pylat (1282188)  06 Feb. 23, 12:28
    Kommentar

    Nun holt uns die unseelige Entwicklung ein,


    die durch Multiple Choice-Fragen in Prüfungen und Textbausteinen in Gutachten usw. vorbereitet worden ist. Als Psychologe kann ich ein Lied davon singen, wie vergeblich mein Einsatz für qualitative Verfahren (also Beschreibungen, statt quantitativ auswertbare Fragebögen) gewesen war. Ein ChatGPT-Programm kann natürlich hervorragend Texte / Prüfungen und Expertisen nachahmen, die auf diese Weise produziert worden sind.


    Es wird nicht mehr lange dauern, dass auch der Sinn des Erlernens einer Sprache ernsthaft in Frage gestellt werden wird. Denn es ist offensichtlich: Wer glaubt, Schulunterricht (oder Psychotherapie) ginge digital (wie in Coronazeiten es verbreitet wurde), der glaubt auch daran, sprachliche Kommunikation ginge per Software.

    Beides geht zwar, aber in einer ganz spezifischen Weise, die den sozialen Anteil ausschließt (bzw. verkümmern lässt) und das "Geschäftliche" in den Vordergrund rückt. Sprache als wesentliches Mittel des Kontaktes (mit einem Land, mit den Menschen mit der Kultur), darauf wird dann verzichtet werden. Die Sprache eines anderen Landes zu erlernen, wird zum Hobby für wenige absinken. Wenn dann das Sozialverhalten und die Kommunikation nicht mehr eingeübt werden, werden die Schlaumeier in den Kultusministerien Unterricht in "Kommunikation" und "Sozialverhalten" fordern und Psychologen sich bereitfinden, die damit ihr Geld verdienen wollen. Dass Kommunikation (und Sozialverhalten) aber gerade durch Sprach-Unterricht (und Sozialverhalten durch Musik- und Sport-Unterricht und nicht durch Anti-Aggressions-Training) zustande kommt, und als ilsolierte "Vermögen" gar nicht eingeübt werden können, das wird nicht gesehen bzw. will nicht gesehen werden.

    #5Verfasser Gentilloup (285098) 06 Feb. 23, 12:31
    Kommentar

    In den L'Express-Heften vom 9. und 16. Januar standen jeweils interessante Berichte über Chat-GPT. Die Lektüre würde sich auf jeden Fall lohnen. Gerade in dem Heft vom 16. Januar werden auch die von pylat in @3 erwähnten Probleme eingehend behandelt.

    Ich habe im Internet nur gefunden

    https://www.lexpress.fr/economie/high-tech/ch...

    Auch die angegebenen Schlaglichter zeigen ganz gut, womit wir es zu tun bekommen.


    #6Verfasser hannabi (554425) 06 Feb. 23, 12:42
    Kommentar

    Ich habe ChatGPT gerade einmal praktisch ausprobiert und bin nur verwundert über die - meiner Ansicht nach - schlechten Antworten. Wenn man sich in Literatur über Gesundheit einliest, erfährt man relativ schnell, dass D-Ribose, ein Einfachzucker, viel Energie bringt.

    Das in den Miochondrien produzierte ATP (ein chemisches Molekül, das in jeder Zelle eines Lebewesens Energie bereitstellt) bedeutet bekanntlich Adenosin tri phosphat und besteht aus Ribose, Adenin und drei Phospahaten. Ribose + Adenin ergibt Adenosin, daher auch der Name Adenosin-tri-phosphat.

    Wenn man die Frage ChatGPT stellt, bekommt man eine falsche Antwort: "Es gibt keine wissenschaftlichen Beweise, dass D-Ribose oder D-Galaktose direkt dazu beitragen, mehr Energie für das Gehirn zu bekommen. Obwohl D-Ribose eine Art Zucker ist, der bei der Energieproduktion im Körper eine Rolle spielt, ist es unwahrscheinlich, dass es eine signifikante Wirkung auf das Gehirn hat" (anderer Ansicht [unter vielen anderen]: Dr. Bodo Kuklinski, Mitochondrien - der Spezialist in D auf diesem Gebiet). Bei einer anderen Frage habe ich eine Antwort erhalten, über die ich nur schmunzelte ... aber sie nicht ernst nahm. Weil doch so viel Literatur von ChatGPT verwertet sein soll, hieß meine Aufgabe anschließend: "Formulieren Sie im Stil von Wolf Haas, Autor der Brenner-Romane, eine kurze Geschichte." Die kurze Geschichte, die ChatGPT mir erzählte, entsprach aber keineswegs diesem besonderen sprachlichen Stil des genannten österreichischen Autors. Vielleicht habe ich ChatGPT ja überfordert ... Bei weiteren Fragen hörte ChatGPT schon nach relativ kurzer Zeit auf, die Antworten/ Bemerkungen dazu zu formulieren.

    #7Verfasser ichliebeschoeneswetter (1304784)  07 Feb. 23, 06:50
    Kommentar

    >7

    das Problem mit solcher angeblichen "Intelligenz" ist weniger der Nachweis ihrer eben doch nicht vorhandenen "Allwissenheit", sondern ihre Überschätzung grundsätzlicher Art, wie ich das in meinem Beitrag (in aller Kürze) z. B. für den digitalen Schulunterricht dargestellt habe. Inzwischen glauben (und forschen) ja auch einige daran, das Psychische mit einer Software zu koppeln. Dass das grundsätzlicher Unsinn ist, weil das Seelische nicht im Gehirn sitzt (das Seelische hat keinen Ort. " Nicht das Gehirn denkt, sonder der Mensch", formulierte Erwin Strauss vor 100 Jahren). Es sind die falschen Theorien, die in der Tat gefährlich sind (wie lange glaubte man in der Medizin, Aderlass sei eine gute Therapie?). Ich wäre froh, würde die künstliche Intelligenz dort eingesetzt, wo es wirklich sinnvoll ist, z. B. die Ampelschaltung einer Stadt auf bestmöglichen Verkehrsfluss hin zu koordinieren, anstatt - wie gegenwärtig - Unsummen ins autonome Fahren zu investieren.

    #8Verfasser Gentilloup (285098) 07 Feb. 23, 11:43
    Kommentar

    @8

    Sicher sitzt die Seele nicht im Gehirn - aber die ihr eigenen Funktionen werden über die Nerven transportiert. Und genau da setzt die KI-Forschung an.


    #9Verfasser hannabi (554425) 08 Feb. 23, 17:01
     
  •  
  •  
  •  
  •  
  •  
  
 
 
 
 
 ­ automatisch zu ­ ­ umgewandelt