Школьникам, уличённым в сдаче экзамена с помощью ChatGPT, могут назначить устную проверку – проект правил
Фото Depositphotos.com
Министерство просвещения и Национальная академия образования имени Алтынсарина подготовили проект этических стандартов применения информационных систем, в том числе искусственного интеллекта, в организациях среднего, технического и профессионального образования, передает Informburo.kz.
Документ опубликован на сайте академии и содержит 11 разделов. В нём обозначен главный принцип – «применение ИИ не подменяет профессиональное суждение педагога, решение принимает человек». Также отмечается, что применение систем искусственного интеллекта в организациях допускается, если «доказана образовательная ценность по сравнению с альтернативами без ИИ».
Стандарты устанавливают требования к выполнению письменных и устных работ:
- черновой этап выполняется автономно без ИИ, но разрешается последующая редакторская поддержка с обязательным размышлением о внесённых изменениях;
- в заданиях с допуском ИИ педагог устанавливает минимальный автономный вклад обучающегося и критерии его подтверждения;
- любой текст, созданный или существенно отредактированный с применением ИИ, подлежит маркировке с указанием инструмента, версии, режима использования и характера правок;
- при сомнениях в авторстве обязательны устная защита, сравнительный анализ работ и дополнительные задания без ИИ;
- запрещается «авторский» режим, при котором ИИ генерирует основные идеи, аргументацию или результаты при целях задания на собственное рассуждение.
При выполнении контрольных запрещены:
- генерация готовых ответов или работ под ключ вместо самостоятельного выполнения;
- автоматизированный перевод без анализа и доработки в заданиях, направленных на проверку языковой компетенции;
- использование авторешателей тестов.
Если учащегося уличили в нарушении этих правил, его могут обязать предоставить черновики и заметки. Педагог вправе назначить и устную защиту.
Ещё до выдачи заданий учителя должны определить, какую долю работы ученик может передать ИИ и как он должен промаркировать её.
Педагогу же разрешается использовать генеративный ИИ для подготовки черновиков планов уроков, рубрик и учебных примеров при условии последующей экспертной проверки и личной ответственности за содержание.
В документе обозначена и ответственность каждого участника учебного процесса. Так, Минпросвет должен сформировать нормативную базу, финансировать мероприятия и контролировать их исполнение. За оценку практик несёт ответственность Национальная академия образования. Школы, колледжи и вузы должны вводить матрицы допусков ИИ по предметам и классам, защищать данные и готовить кадры.
Отдельная глава посвящена академической добросовестности. Так:
- запрещается представлять сгенерированный ИИ контент как собственную работу;
- выводы детекторов ИИ используются только как вспомогательная информация;
- они не подменяют проверку преподавателем и не являются самостоятельным доказательством.
Говорится в документе и о безопасности. Запрещаются постоянная биометрическая идентификация и трекинг (распознавание лиц, походки, голоса) в учебной среде. Нельзя собирать, хранить и использовать биометрические данные несовершеннолетних для учёта посещаемости, оценивания или дисциплины. Запрещаются персонализированная реклама и коммерческие предложения, встроенные в образовательный контент.
Комментарии закрыты.