Школьникам, уличённым в сдаче экзамена с помощью ChatGPT, могут назначить устную проверку – проект правил


Фото Depositphotos.com

Министерство просвещения и Национальная академия образования имени Алтынсарина подготовили проект этических стандартов применения информационных систем, в том числе искусственного интеллекта, в организациях среднего, технического и профессионального образования, передает Informburo.kz. 

Документ опубликован на сайте академии и содержит 11 разделов. В нём обозначен главный принцип – «применение ИИ не подменяет профессиональное суждение педагога, решение принимает человек». Также отмечается, что применение систем искусственного интеллекта в организациях допускается, если «доказана образовательная ценность по сравнению с альтернативами без ИИ».

Стандарты устанавливают требования к выполнению письменных и устных работ:

  • черновой этап выполняется автономно без ИИ, но разрешается последующая редакторская поддержка с обязательным размышлением о внесённых изменениях;
  • в заданиях с допуском ИИ педагог устанавливает минимальный автономный вклад обучающегося и критерии его подтверждения;
  • любой текст, созданный или существенно отредактированный с применением ИИ, подлежит маркировке с указанием инструмента, версии, режима использования и характера правок;
  • при сомнениях в авторстве обязательны устная защита, сравнительный анализ работ и дополнительные задания без ИИ;
  • запрещается «авторский» режим, при котором ИИ генерирует основные идеи, аргументацию или результаты при целях задания на собственное рассуждение.

 

При выполнении контрольных запрещены:

 

  • генерация готовых ответов или работ под ключ вместо самостоятельного выполнения;
  • автоматизированный перевод без анализа и доработки в заданиях, направленных на проверку языковой компетенции;
  • использование авторешателей тестов.

 

Если учащегося уличили в нарушении этих правил, его могут обязать предоставить черновики и заметки. Педагог вправе назначить и устную защиту.

Ещё до выдачи заданий учителя должны определить, какую долю работы ученик может передать ИИ и как он должен промаркировать её.

Педагогу же разрешается использовать генеративный ИИ для подготовки черновиков планов уроков, рубрик и учебных примеров при условии последующей экспертной проверки и личной ответственности за содержание.

В документе обозначена и ответственность каждого участника учебного процесса. Так, Минпросвет должен сформировать нормативную базу, финансировать мероприятия и контролировать их исполнение. За оценку практик несёт ответственность Национальная академия образования. Школы, колледжи и вузы должны вводить матрицы допусков ИИ по предметам и классам, защищать данные и готовить кадры. 

Отдельная глава посвящена академической добросовестности. Так:

 

  • запрещается представлять сгенерированный ИИ контент как собственную работу;
  • выводы детекторов ИИ используются только как вспомогательная информация;
  • они не подменяют проверку преподавателем и не являются самостоятельным доказательством.

 

Говорится в документе и о безопасности. Запрещаются постоянная биометрическая идентификация и трекинг (распознавание лиц, походки, голоса) в учебной среде. Нельзя собирать, хранить и использовать биометрические данные несовершеннолетних для учёта посещаемости, оценивания или дисциплины. Запрещаются персонализированная реклама и коммерческие предложения, встроенные в образовательный контент.  

Источник: ekaraganda
Обратите внимание

Комментарии закрыты.