Der Ähnlichkeitskoeffizient (SC) gibt den prozentualen Anteil des Textes an, der als ähnlich zum Gesamtumfang des Dokuments erkannt wurde.
Beispiel: Ein SC von 16 % bedeutet, dass 16 % des gesamten Textes als ähnlich identifiziert wurden.
Der Zitierkoeffizient (QC) beschreibt den Anteil des Textes, der in Anführungszeichen steht, im Verhältnis zum gesamten Textumfang. Der QC wird lila markiert und dient ausschließlich informativen Zwecken – er sagt nichts über die Qualität der Arbeit aus.
Der Ähnlichkeitskoeffizient allein bedeutet nicht automatisch Plagiat.
Beispielsweise sind Gesetzestexte oder rechtliche Regelungen nicht plagiiert, auch wenn sie als ähnlich erkannt werden. Ebenso gelten korrekt zitierte und richtig zugeordnete Texte nicht als Plagiat.
Unterschied zwischen SC 1 und SC 2:
SC 1 teilt gefundene ähnliche Texte in 5-Wort-Segmente,
SC 2 teilt sie in 25-Wort-Segmente.
SC 2 dient dazu, größere zusammenhängende Textblöcke und deren Umfang besser darzustellen.
Stellt der Lehrende Textstellen fest, die korrigiert werden müssen, kann er direkt im Interaktiven Ähnlichkeitsbericht über die Kommentarfunktion einen Kommentar hinterlassen.
Alle Kommentare sind für Studierende im Kommentarbereich des Berichts sichtbar.
Haben Studierende keinen Systemzugang, kann der Bericht mit Kommentaren über die Weiterleitungsfunktion versendet werden.
Besitzen sie ein Konto, reicht es aus, sie zur Aufgabe (Assignment) einzuladen. Nach dem Klick auf Speichern | Absenden erhält der Student den Bericht per E-Mail und im Benutzerkonto.
Öffnen Sie den Interaktiven Ähnlichkeitsbericht, wechseln Sie zum Reiter „Suche nach KI-generierten Inhalten“ und klicken Sie auf „Details“.
Am Ende der Arbeit muss die Überschrift „Bibliografie“ (in beliebiger Sprache) stehen, und die Quellenliste muss nummeriert sein.
Ja. Das System bietet einen Originalitätskoeffizienten, der auf Anfrage aktiviert werden kann.
Ja, diese Möglichkeit besteht.
Die Liste der akzeptierten Fragmente zeigt alle Textstellen, die vom Betreuer akzeptiert und aus verschiedenen Gründen vom Ähnlichkeitswert ausgeschlossen wurden.
Zur Plagiatsanalyse sollte immer der Interaktive Ähnlichkeitsbericht verwendet werden.
HTML- oder PDF-Berichte reichen hierfür nicht aus.
Entscheidend ist nicht der Prozentwert, sondern:
ob ein Textfragment dem Autor gehört oder Allgemeingut ist,
- ob der Autor korrekt genannt wurde,
- ob die Zitierregeln eingehalten wurden.
Ein Text gilt als plagiiert, wenn:
1. kein Autor angegeben ist,
2. ein falscher Autor genannt wird,
3. Teile korrekt zitiert sind, andere Teile derselben Quelle jedoch nicht.
Der AI Probability Coefficient (AIPC) zeigt die Wahrscheinlichkeit in Prozent, dass ein Text von einer KI erstellt wurde.
Beispiel: 34 % bedeutet eine 34-%-Wahrscheinlichkeit für KI-Erstellung.
Der Text wird in kleine Fragmente unterteilt, für die jeweils eine Wahrscheinlichkeit berechnet wird. So lassen sich KI-verdächtige Textstellen gezielt identifizieren.
Der Bericht kombiniert Quellen aus:
-der RefBooks-Datenbank,
-der institutionellen Datenbank (Home-Datenbank),
-Partnerdatenbanken,
-offenen Internetquellen.
Es müssen die folgenden Zeichen verwendet werden:
„…“ oder «…».
Ja. Das System zeigt Überschreitungen der Schwellenwerte an, die vom Systemadministrator in den Einstellungen festgelegt wurden.
Separate Werte können für SC 1, SC 2 und unterschiedliche Dokumenttypen definiert werden.
Der Bericht kann als HTML- oder PDF-Datei (Kurz- oder Vollversion) heruntergeladen werden.
Heruntergeladene Berichte sind nicht interaktiv – Änderungen an SC-Werten sind dort nicht möglich.
Ja. Der Interaktive Ähnlichkeitsbericht kann über die Funktion auf der rechten Seite geteilt werden.
Wurde das Dokument über ein Assignment hochgeladen, ist nur der Ansichtsmodus verfügbar; andernfalls kann der Bericht auch bearbeitbar geteilt werden.
Farben zeigen Quellenarten, nicht Plagiate:
Rot – Partnerdatenbanken
Orange – RefBooks
Grün – Internetquellen
Blau – alle Fragmente aus derselben Quelle
Lila – Zitate
Unterschiedliche Farbschattierungen bedeuten, dass Fragmente nicht direkt aufeinanderfolgen
Cross-Check ist eine Vergleichsanalyse aller Arbeiten innerhalb eines Assignments.
Das System zeigt übereinstimmende Textstellen zwischen Arbeiten an – auch wenn diese noch nicht in der Datenbank gespeichert sind.
Ja. Öffnen Sie den Interaktiven Ähnlichkeitsbericht, klicken Sie auf ein Fragment und wählen Sie, ob Sie:
-ein einzelnes Fragment oder
-alle Fragmente aus dieser Quelle
ausschließen möchten.
Ja. Kommentare sind im unteren linken Bereich des Berichts sichtbar – sowohl im interaktiven als auch im PDF- und HTML-Bericht.
Gelb markierte Textstellen zeigen Übereinstimmungen mit der analysierten Arbeit.
Alle Quellen werden links angezeigt; beim Anklicken werden passende Stellen hervorgehoben – das erleichtert die Analyse erheblich.
Das System erkennt über 100 Textmanipulationen, darunter:
-fremde Alphabete,
-Mikro-Leerzeichen,
-weiße Zeichen,
-untypische Abstände.
Im Bericht werden die häufigsten Manipulationen angezeigt.
Die Schaltfläche:
1. dokumentiert die Entscheidung (akzeptiert, zurückgegeben, abgelehnt),
2. aktualisiert den Status im System,
3. sendet den Bericht samt Entscheidung per E-Mail an den Autor.
Das System durchsucht über 2 Milliarden Websites und 200 Millionen Dokumente.
Quellen können sich ändern oder nicht mehr verfügbar sein, was zu unterschiedlichen Ergebnissen führen kann.
Gelb markierte Textstellen zeigen Übereinstimmungen mit der analysierten Arbeit.
Alle Quellen werden links angezeigt; beim Anklicken werden passende Stellen hervorgehoben – das erleichtert die Analyse erheblich.
Ja. Öffnen Sie den Interaktiven Ähnlichkeitsbericht und aktivieren Sie Kommentieren auf der rechten Seite.
Die Anti-Plagiatsprüfung erfolgt in folgenden Datenbanken:
Kundendatenbank,
Datenbanken anderer Kunden-Partner (ohne Zugriff auf Inhalte und ohne Anzeige der Autorennamen),
offene Internetquellen,
wissenschaftliche RefBooks-Datenbank, die Millionen wissenschaftlicher Publikationen, Dissertationen und anderer Arbeiten in verschiedenen Sprachen enthält
Ja. Das System zeigt ähnliche Textfragmente direkt innerhalb der Quelle an, um die Suche nach Inhalten, die Analyse der Arbeit und deren Bewertung zu erleichtern.
Ein Dokument kann aus der Datenbank entfernt werden, ohne es aus dem System zu löschen, indem in der Dokumentenliste unter „Aktionen“ die Option „Aus der Datenbank zurückziehen“ gewählt wird.
Diese Aktion kann von Lehrenden und Administratoren durchgeführt werden.
Alle Benutzerdaten sind verschlüsselt, anonymisiert und werden DSGVO-konform verarbeitet.
Das System hat alle erforderlichen Sicherheitstests bestanden und ist ISO 27001:2023 zertifiziert.
Dokumente können auf mehreren Wegen übertragen werden:
FTTP-Zugriff auf einen Datenbankbereich auf dem Server des Kunden,
über Google Drive zusammen mit einer separaten Excel-Datei mit Metadaten,
durch manuellen Upload durch Benutzer in ihre StrikePlagiarism.com-Konten.
Es gibt keine Einschränkungen hinsichtlich Anzahl oder Art der Dokumente.
Es können alle lesbaren Formate (z. B. DOC, DOCX, PDF, RTF usw.) hinzugefügt werden.
Sowohl der Systemadministrator als auch unser technischer Support können einzelne Dokumente oder die gesamte Datenbank löschen.
Das System durchsucht mit Priorität die interne Datenbank. Wird ein Dokument dort gefunden, erfolgt keine erneute Suche nach demselben Textfragment im offenen Internet.
Manchmal werden Textstellen nicht gefunden, weil:
die Fragmente sehr kurz sind (z. B. nur wenige Sätze) und für die Plagiatsanalyse nicht relevant sind,
die Quelle für unsere Suchmaschine **nicht indexierbar („unsichtbar“) ** ist.
In diesem Fall bitten wir Sie, uns für eine zusätzliche Indexierung zu kontaktieren.
Ja. Das System durchsucht u. a. Scopus, Web of Science, EBSCO sowie weitere wissenschaftliche Datenbanken.
Insgesamt besteht Zugriff auf Inhalte aus über 20.000 wissenschaftlichen Zeitschriften und mehr als 5.000 Verlagen, darunter Oxford University Press, Springer, Nature, Hindawi, BMC u. a.
Dokumente werden auf drei Arten hinzugefügt:
über die Feedback-Schaltfläche im Ähnlichkeitsbericht mit der Option „Akzeptieren“,
automatisch nach einer vom Administrator festgelegten Anzahl von Tagen,
automatisch unmittelbar nach der Überprüfung.
Nein. Der Zugriff auf Dokumente und personenbezogene Daten ist streng eingeschränkt.
Andere Kunden haben keinen Zugriff auf Ihre Inhalte.
Bei Vergleichen zwischen Dokumenten verschiedener Kunden werden ausschließlich Titel der Arbeit, Name der Institution und Veröffentlichungsdatum angezeigt – alle weiteren Informationen sind anonymisiert.
Die Benutzerdatenbank wird in der EU (Deutschland, Frankreich, Polen) gespeichert.
Es werden OVHcloud-Serverressourcen genutzt.
Daten von US-Nutzern werden auf AWS-Infrastruktur gespeichert.
Dokumente und Benutzerdaten werden für die Dauer der vertraglichen Verpflichtungen gespeichert.
Nach Vertragsende werden alle Daten dauerhaft gelöscht, vollständig im Einklang mit der DSGVO.
Eine Prüfung ist möglich, wenn die Dokumente für die Internetsuche zugänglich sind.
Da Webseiten zeitweise nicht erreichbar sein können, kann nicht garantiert werden, dass alle Dokumente gefunden werden.
Als Alternative bieten wir die Installation eines Suchmoduls auf den Servern des Kunden an.
Die Suche erfolgt dann lokal, ohne Dokumentübertragung; lediglich Metadaten werden für den Ähnlichkeitsbericht übermittelt
In der Regel dauert die Überprüfung nur wenige Minuten.
Dokumente mit mehr als 100 Seiten benötigen länger als kürzere Texte.
Weitere Einflussfaktoren:
Dokumentumfang,
saisonale Spitzenzeiten (Sommer- und Wintersessionen).
Wir empfehlen, Dokumente frühzeitig vor Abgabefristen zu prüfen.
Das Assignments-Modul ermöglicht eine strukturierte Organisation der Abgabe, Prüfung und Bewertung von Arbeiten. Lehrende können Aufgaben zentral verwalten, Studierende gezielt einladen, Ähnlichkeitsberichte prüfen, Entscheidungen dokumentieren und – falls aktiviert – Peer-Review-Prozesse integrieren.
Ja. Der Lehrende kann ein Assignment bearbeiten, indem er in den Aktionen des Assignments auf „Bearbeiten“ klickt.
So lassen sich unter anderem Abgabefristen und weitere Parameter des Assignments ändern.
Studierende werden über einen Assignment-Kurzcode (Short Code) zugewiesen.
Dieser Kurzcode wird automatisch vom System beim Erstellen des Assignments generiert.
Über diesen Code können sich Studierende anmelden und ein Dokument in das Assignment hochladen.
Assignments werden für jede Gruppe (Klasse) separat erstellt.
Das hängt von den Einstellungen des Kunden (der Organisation) ab.
Ja. StrikePlagiarism.com verfügt über ein Peer-Review-Modul, mit dem im Rahmen von Assignments die gegenseitige Begutachtung von Arbeiten durch Studierende organisiert werden kann.
Studierende beantworten dabei vom Lehrenden definierte Fragen und bewerten Arbeiten anhand festgelegter Kriterien.
Zu den Funktionen gehören u. a.:
Bewertung der eigenen Arbeit und/oder der Arbeiten anderer Studierender,
anonyme oder vordefinierte Zuweisung von Gutachtern durch den Lehrenden,
Vergabe von Bewertungen für Analysequalität, Argumentation und Informationskompetenz.
Ein Assignment kann von einem Lehrenden, Administrator oder Abteilungsadministrator erstellt werden.
Nach dem Login wählen Sie im Bereich Assignments die Option „Hinzufügen“.
Ja, sofern der Lehrende über eine ausreichende Anzahl von Dokumentenprüfungen im eigenen Kontingent verfügt.
Um das Kontingent zu erhöhen, wenden Sie sich bitte an den Systemadministrator (z. B. über den Hilfe-Bereich oder das Feedback-Formular).
Der Assignment-Kurzcode erlaubt zunächst nur eine Abgabe pro Assignment.
Für eine erneute Abgabe (z. B. einer korrigierten Version) muss der Lehrende den Status der Arbeit im Interaktiven Ähnlichkeitsbericht auf „zur Korrektur zurückgegeben“ setzen.
Die maximale Anzahl der Rückgaben wird global vom Administrator festgelegt.
Ja. Der Lehrende kann alle Arbeiten sammeln, sie in eine ZIP-Datei packen und diese in das Assignment hochladen.
Zuvor müssen im System die Vor- und Nachnamen der Autoren korrekt hinterlegt werden.
Mögliche Ursachen sind:
Überschreitung der Dateigrößenbegrenzung,
nicht unterstütztes Dateiformat,
Ablauf des Vertrags,
aufgebrauchtes Prüfkontingent der Organisation.
Bei Problemen empfehlen wir, zunächst den Systemadministrator der Organisation zu kontaktieren.
Alternativ können Sie über den Bereich Hilfe → Feedback-Formular direkt mit uns Kontakt aufnehmen.
Zur Aktivierung des Peer-Review-Moduls wenden Sie sich bitte zunächst an unseren Helpdesk.
Nach der Aktivierung steht die Funktion im Bereich Assignments zur Verfügung, und Lehrende können sowohl Standard-Assignments als auch Peer-Review-Assignments erstellen.
Nachdem der Lehrende im Interaktiven Ähnlichkeitsbericht über die Feedback-Schaltfläche eine Entscheidung getroffen hat (angenommen, zurück zur Korrektur oder abgelehnt),
ändert sich der Status des Berichts, und das System sendet dem Studierenden eine E-Mail-Benachrichtigung.
Diese enthält einen direkten Link zum Ähnlichkeitsbericht.
Ja. Unser Modul erkennt KI-Inhalte, die von allen aktuellen Versionen von ChatGPT sowie von anderen KI-Tools wie Bard, Claude 2 und weiteren verbreiteten Systemen generiert wurden.
Ja. Zahlreiche Tests haben die Wirksamkeit bestätigt.
Gleichzeitig weisen wir darauf hin, dass es sich um ein Informationssystem handelt und – wie bei allen vergleichbaren Systemen – keine 100-%-Garantie gegeben werden kann.
Zudem können Texte gemischt sein (menschlich + KI), von KI paraphrasiert oder von KI übersetzt, obwohl der Ursprung menschlich ist. Diese Faktoren werden bei der Analyse berücksichtigt.
Öffnen Sie den Interaktiven Ähnlichkeitsbericht, wechseln Sie zum Reiter „KI-Inhaltserkennung“ und klicken Sie auf „Details“.
Das Modul erkennt KI-Inhalte in über 100 Sprachen, darunter Englisch, Spanisch, Italienisch, Französisch, Deutsch, Portugiesisch, Niederländisch, Traditionelles und Vereinfachtes Chinesisch, Griechisch, Polnisch, Vietnamesisch, Türkisch, Ukrainisch, Japanisch, Koreanisch, Persisch, Schwedisch, Finnisch, Estnisch, Litauisch, Lettisch, Tschechisch, Rumänisch, Indonesisch, Russisch u. v. a.
Die maximale Dokumentgröße für die KI-Prüfung beträgt 1.000 Seiten.
Die Tests umfassten 10.000 Texte, die mit GPT-4o generiert wurden, sowie jeweils 20.000 Texte für weitere Modelle.
Ergebnisse:
-94 % korrekte Erkennung von GPT-4o-Texten,
-94 % bei GPT-J,
-95 % bei GPT-Neo.
Die False-Positive-Rate liegt bei ca. 2 % für Englisch.
Die Genauigkeit der KI-Inhaltserkennung liegt bei über 90 %.
KI-generierte Inhalte müssen streng gemäß den Richtlinien der Bildungseinrichtung bewertet werden.
Das Modul zeigt Textfragmente und die Wahrscheinlichkeit an, dass sie KI-generiert sind.
Wir empfehlen, Textstellen mit einer KI-Wahrscheinlichkeit über 60 % besonders zu prüfen und dies mit dem Studierenden zu besprechen (Art, Umfang und Zweck der KI-Nutzung).
Gibt es institutionelle Regeln zur Kennzeichnung von KI-Inhalten, sollten entsprechende Anpassungen (z. B. Verweis auf KI-Nutzung) verlangt werden, damit die Eigenständigkeit der Arbeit gewahrt bleibt.
Der KI-Inhaltsbericht ist im Interaktiven Ähnlichkeitsbericht integriert.
Dort gibt es den Bereich „KI-Inhaltserkennung“, der den KI-Wahrscheinlichkeitskoeffizienten sowie eine Details-Schaltfläche enthält.
Beim Hochladen eines Dokuments mit aktivierter KI-Suche wird der KI-Bericht automatisch erstellt – es sind keine zusätzlichen Schritte erforderlich.
Der Bericht zeigt sowohl den KI-Wahrscheinlichkeitswert (API) als auch die Wahrscheinlichkeit pro Textfragment und markiert diese farblich:
Grün: sehr geringe Wahrscheinlichkeit für KI-Erstellung
Rot: sehr hohe Wahrscheinlichkeit für KI-Erstellung
Die Farben können nicht manuell geändert, akzeptiert oder abgelehnt werden.
Die Bewertung basiert auf aktuellen, leistungsstarken Modulen und Algorithmen.
Ja. Das KI-Suchmodul ist in API und LTI integriert.
Beim Erstellen eines Assignments im LMS kann die KI-Suche pro Aufgabe, Quiz oder Diskussion ein- oder ausgeschaltet werden.
Wir empfehlen:
-dass Studierende Zweck, Umfang und Methode der KI-Nutzung vorab mit der Lehrperson abstimmen,
-die verwendeten KI-Tools und deren Einsatzbereiche (z. B. Literaturrecherche, Einleitung, sprachliche Überarbeitung) zu dokumentieren,
-alle KI-generierten Textstellen durch Fußnoten oder Anhänge kenntlich zu machen.
Lehrende sollten den Grad der Eigenständigkeit bei der Annahme der Arbeit bewerten.
Bei Verstößen gegen Richtlinien empfiehlt es sich, den Sachverhalt zunächst zu klären und anschließend über Annahme, Überarbeitung oder Ablehnung zu entscheiden.
Eigene Regeln der Lehrenden sollten den Studierenden schriftlich (z. B. im Syllabus) kommuniziert werden.
StrikePlagiarism.com ist mit einer Vielzahl von LMS integriert, darunter Moodle (alle Versionen), OJS, Canvas, Brightspace, Blackboard, Schoology, Arcanic, itslearning, ILIAS und weitere.
StrikePlagiarism.com unterstützt LTI 1.3, REST API, SAML 2.0 sowie OAuth 2.0 und kann über API oder LTI an praktisch jedes LMS angepasst werden.
Bitte registrieren Sie sich im Portal lti.strikeplagiarism.com, melden Sie sich anschließend an und füllen Sie das Formular aus.
Wir erhalten automatisch eine Benachrichtigung und aktivieren Ihr Konto, damit Sie die Integration testen können.
Über den bereitgestellten Link finden Sie Informationen zu ausgewählten Integrationen.
Anleitungen für alle Integrationstypen sind in unserer Knowledge Base verfügbar.
Sollten Sie dort keine Informationen zu einem bestimmten System finden, kontaktieren Sie uns bitte über das Formular
Diese API-Meldung bedeutet, dass der Benutzer (bzw. das über den API-Key angebundene LMS-Konto) kein verfügbares Dokumentenkontingent mehr hat.
In diesem Fall muss der Systemadministrator das Konto aufrufen und zusätzliche Dokumente zum Zähler hinzufügen.
Das ist sehr einfach:
Laden Sie das Plugin von https://moodle.org/plugins/plagiarism_strike
herunter und kontaktieren Sie uns, um einen API-Key zu erhalten.
In den meisten Fällen liegen Integrationsprobleme an den Cron-Einstellungen.
Bitte lesen Sie die Administrations-/Installationsanleitung sorgfältig und überprüfen Sie die entsprechenden Einstellungen
Ja. StrikePlagiarism.com unterstützt die Integration mit vielen LMS über API.
Unsere REST API bietet umfangreiche Möglichkeiten zur Anbindung an jedes LMS.