Einführung

Erklären Sie den Lernenden, dass diese Aktivität nicht alle ihre Probleme lösen und sie nicht zu Experten in der Erkennung von KI-generierten Inhalten machen wird, aber sie kann ihnen wichtige Details zeigen, auf die sie in Zukunft achten sollten, damit sie nicht durch KI-generierte Inhalte in die Irre geführt werden. Als ChatGPT für die Öffentlichkeit verfügbar wurde, begannen viele Zeitungen und Blogs mit dem Programm zu experimentieren, um zu sehen, wie gut es in realen Szenarien funktioniert und ob Menschen nicht-menschlich geschriebene Inhalte erkennen können. Obwohl das Programm manchmal Fehler macht, ist seine Produktivität erstaunlich und kann den Autoren viel Zeit ersparen. Aber es muss überarbeitet werden. Eine perfekte Lösung könnte darin bestehen, dass die Urheber von Inhalten bekannt geben, ob ihre Inhalte teilweise oder vollständig von KI geschrieben wurden. Im Moment ist das noch eine Utopie, wir müssen uns also noch weiterbilden. KI täuscht uns bereits: Nach Angaben von Forschern der Cornell University halten Menschen in 66 % der Fälle von GPT-2 generierte Fake-News-Artikel für glaubwürdig. Es gibt zwar Software zur Erkennung von KI, aber sie ist nicht ganz einheitlich. Wenn eine größere Textmenge zur Verfügung steht, kann die Erkennung einfacher sein. Tippfehler und Kommas können Anzeichen dafür sein, dass der Inhalt von Menschen geschrieben wurde, aber auch vorhersehbare Texte mit standardmäßig langen Sätzen und wiederkehrenden Formulierungen können Anzeichen dafür sein, dass der Inhalt von einer KI geschrieben wurde. Das ganze Problem liegt in der Geschwindigkeit des Prozesses. Die Geschwindigkeit der Entwicklung in diesem Sektor bedeutet, dass jede Möglichkeit, KI-generierten Text zu erkennen, sehr schnell veraltet.

Zeigen Sie der Gruppe das folgende Video (auf Englisch, für andere Sprachen sind automatisch generierte Untertitel verfügbar):

Matt Diggity. Wie ich UNDETECTABLE AI-Inhalte mache (die Google liebt) 
(00:00 - 07:33):


10 min.
cookieCookies help us deliver our services. By using our services, you agree to our use of cookies.