Забелязахме, че студентите и преподавателите активно използват различни механизми и инструменти за създаване на съдържание, включително и изкуствен интелект.
Инструментите за генериране на съдържание от ИИ станаха част от образователния процес, въпреки че се появиха съвсем наскоро. Студентите и преподавателите ги използват, защото са много ефективни, бързи и имат достъп до огромни обеми информация. Въпреки това съществува известен риск, свързан с използването им.
Нашата компания реши да създаде модул, който да отговаря на нуждите на образователни институции, корпоративни и издателски къщи.
Образователната институция, разполагаща с ефективен инструмент за противодействие на злоупотребите, които могат да възникнат при използването на ChatGPT, Bard и други инструменти за съдържание, генерирано от изкуствен интелект, ще може по-добре да защити студентите от нарушаване на принципите на академичната почтеност и да защити стандартите за качество на образованието.
Докладът за съдържанието на текст, генериран от ИИ е поставен в интерактивния Доклад за сходство, което е много удобно за анализиране.
Удобно е също така да оценявате документа по два критерия едновременно и да оставяте коментари, свързани както с ИИ, така и с плагиатството.
Като щракнете върху Детайли в раздела за търсене на ИИ съдържание, ще можете да отворите втория доклад.
Нашият доклад проследява както цялостното съотношение на вероятността текстът на документа да е генериран от ИИ, така и вероятността всеки отделен фрагмент от текст да е създаден от ИИ, като оцветява различните фрагменти и дава информация дали са написани от ИИ или от човек. Докладът показва списък на фрагментите и коефициента на вероятност за всеки фрагмент.
Ако текстът е зелен, вероятността да е написан от ИИ е минимална, а ако е червен, вероятността да е написан от ИИ е максимална.
Тези цветове не могат да се променят ръчно, да се приемат или отхвърлят. Вероятността текстът да е написан машинно се проверява от най-добрите в момента модули и алгоритми.
В модула се прилага контролирано обучение, като се използват няколко модела, включително модифициран модел на BERT, за да се предвиди дали съдържанието е изкуствено или оригинално.
На изкуствения интелект бяха представени милиони текстове с изкуствено създадено и оригинално съдържание, след което беше обучен да определя разликата между тях. След всяка сесия на обучение се използва голям набор от тестови данни, за да се оцени дали новият модел е подобрен или не.