Wir haben festgestellt, dass Studierende und Lehrkräfte aktiv verschiedene Mechanismen und Werkzeuge für die Erstellung von Inhalten nutzen, darunter auch KI-Tools.
KI-Tools sind Teil des Bildungsprozesses geworden, obwohl sie erst vor kurzem erschienen sind. Schüler und Lehrer nutzen sie, weil sie sehr effizient und schnell sind und Zugang zu großen Informationsmengen haben. Allerdings birgt der Einsatz von KI-Tools auch einige Risiken.
Unser Unternehmen hat beschlossen, ein Modul zu entwickeln, das den Anforderungen von Bildungseinrichtungen, Unternehmen und Verlagen gerecht wird. Eine Bildungseinrichtung, die über ein wirksames Instrument zur Bekämpfung von Missbräuchen verfügt, die bei der Verwendung von ChatGPT, Bard und anderen Systemen zur Generierung von KI-Inhalten auftreten können, wird in der Lage sein, Studierende besser vor Verstößen gegen die Grundsätze der akademischen Integrität zu schützen und die Qualitätsstandards der Bildung zu schützen.
Der KI-Inhaltsbericht wird in den interaktiven Ähnlichkeitsbericht eingefügt, der sich sehr einfach analysieren lässt. Es ist auch praktisch, das Dokument nach zwei Kriterien gleichzeitig zu bewerten und Kommentare zu KI und Plagiaten zu hinterlassen.
In unserem Bericht werden sowohl das KI-Wahrscheinlichkeitsverhältnis als auch die KI-Wahrscheinlichkeit für jedes Textfragment durch Einfärben der Fragmente ermittelt. Jede Farbe steht für die Wahrscheinlichkeit, ob der Text von einer KI oder einem Menschen geschrieben wurde. Der Bericht zeigt eine Liste der Fragmente und den KI-Wahrscheinlichkeitskoeffizienten für jedes Fragment.
Ist der Text grün, ist die Wahrscheinlichkeit, dass er geschrieben wurde, minimal, ist er rot, ist die Wahrscheinlichkeit, dass er geschrieben wurde, am höchsten.
Diese Farben können nicht manuell geändert, akzeptiert oder abgelehnt werden. Die Wahrscheinlichkeit, dass der Text maschinell geschrieben wurde, wird von den derzeit besten Modulen und Algorithmen überprüft.
Das Modul wendet überwachtes Lernen unter Verwendung mehreren Modellen an, darunter ein modifiziertes BERT-Modell, um vorherzusagen, ob es sich um künstliche oder originale Inhalte handelt.
Der künstlichen Intelligenz wurden Millionen von Texten sowohl mit künstlichen als auch mit Originalinhalten vorgelegt und dann trainiert, um den Unterschied zwischen den beiden zu bestimmen. Nach jeder Trainingssitzung wird ein großer Satz von Testdaten verwendet, um zu bewerten, ob das neue Modell eine Verbesserung darstellt oder nicht.