Геращенко И.Г. Этические нормы использования искусственного интеллекта в образовании
УДК 371.39
ЭТИЧЕСКИЕ НОРМЫ ИСПОЛЬЗОВАНИЯ
ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ОБРАЗОВАНИИ
Геращенко И.Г.
Все более актуальным становится изучение этических норм, связанных с использованием искусственного интеллекта (ИИ) в образовании. В статье анализируются следующие вопросы: преимущества и риски применения ИИ в педагогике, проблема информационного неравенства и возможная дискриминация участников педагогического процесса, рост конкуренции в образовании, формы академического мошенничества в педагогической науке и ряд других. Обосновывается идея о недостаточной конкурентоспособности человека по сравнению с ИИ. Это требует возникновения новой формы этики в связи с применением ИИ в образовании.
Ключевые слова: педагогика, искусственный интеллект, этические проблемы в образовании, информационный разрыв, образовательное неравенство, дискриминация, академическое мошенничество.
ETHICAL STANDARDS FOR THE USE
OF ARTIFICIAL INTELLIGENCE IN EDUCATION
Gerashchenko I.G.
The study of ethical norms related to the use of artificial intelligence (AI) in education is becoming increasingly relevant. The article analyses the following issues: the benefits and risks of using AI in pedagogy, the problem of information inequality and potential discrimination against participants in the educational process, the growing competition in education, forms of academic dishonesty in pedagogy, and a number of others. The idea that humans are less competitive than AI is substantiated. This requires the emergence of a new form of ethics related to the use of AI in education.
Keywords: pedagogy, artificial intelligence, ethical issues in education, information gap, educational inequality, discrimination, academic dishonesty.
Следствием бурного развития искусственного интеллекта (ИИ) в самых различных сферах деятельности, включая образование, является повышенный интерес к этическим аспектам его применения. На международном уровне и в Российской Федерации принят ряд постановлений, регулирующих взаимодействие человека и искусственного разума. В «Руководстве по этике для надежного искусственного интеллекта», разработанном специалистами из Европы, сформулированы следующие этические принципы, которым должен соответствовать ИИ: 1) он должен расширять возможности людей при надлежащем механизме надзора; 2) предотвращение непреднамеренного вреда и обеспечение технической устойчивости ИИ; 3) защита данных и создание необходимых механизмов управления ими; 4) прозрачность и объяснимость работы систем ИИ; 5) создание условий для справедливости, равного доступа и недискриминации при функционировании искусственного разума; 6) бережное отношение к окружающей среде и принесение пользы всем людям, включая будущие поколения; 7) обеспечение ответственности и подотчетности систем ИИ, особенно в критически важных приложениях [11].
В российских условиях также приняты аналогичные постановления. В распоряжении Правительства РФ от 19 августа 2020 г. № 2129-р выделены следующие этические принципы деятельности ИИ: защита основополагающих прав и свобод человека, приоритет его безопасности и благополучия; запрет на причинение вреда человеку по инициативе ИИ-систем; подконтрольность человеку с учетом требуемой степени автономности систем искусственного разума; применение ИИ не должно приводить к нарушению правовых норм, в том числе требований безопасности; недопущение манипуляций поведением человека, противоречащих российскому законодательству [9].
Российским Альянсом в сфере ИИ, объединяющим крупнейшие российские технологические компании, в 2021 г. был принят «Кодекс этики в сфере ИИ», где обозначены такие этические постулаты: 1) защита интересов и прав людей и конкретного человека – главный приоритет в развитии ИИ; 2) осознание ответственности при создании и использовании ИИ – первостепенная задача; 3) именно человек несет ответственность за последствия применения систем искусственного разума; 4) приоритеты развития технологий ИИ должны быть выше интересов конкуренции; 5) необходима максимальная прозрачность и правдивость в информировании об уровне развития ИИ-систем, их возможностях и рисках; 6) технологии ИИ следует применять только по назначению и внедрять там, где это принесет пользу людям [см.: 3].
Вместе с тем, существует целый ряд этических рисков, связанных с использованием искусственного разума в образовании. В научной литературе выделяются следующие риски, уже существующие либо возможные в результате применения ИИ в учебном процессе: снижение активности учащихся в различных сферах и недостаточное развитие у них навыков мышления; сокращение автономии учащихся из-за чрезмерной зависимости от систем ИИ; понижение эффективности воспитания и обучения в следствие уменьшения контактной работы с преподавателем; трудности в определении, на ком лежит ответственность за плохие результаты образования; ИИ может давать неверные рекомендации учащимся, что может нанести им вред; неравная доступность к высокоэффективным ИИ у различных слоев населения, что увеличит экономическое неравенство; дискриминация учащихся из более низких социальных слоев; образовательные учреждения могут получить полный доступ к личной информации школьников или студентов помимо их воли; возможность неправильного педагогического решения из-за ошибок в программном обеспечении ИИ; снижение способности к межличностному общению у молодых людей [10, с. 5].
Использование систем ИИ в образовании, так же как и в других сферах человеческой деятельности, имеет свои преимущества и для учащихся, и для преподавателей. К ним относятся: учет индивидуальных способностей и потребностей учеников, большая доступность образования в результате адаптивных технологий, интерактивность и вовлеченность учащихся, быстрая обратная связь, виртуальные педагогические помощники, способные оказывать круглосуточную поддержку. Преподаватели также получают некоторые преимущества: автоматизация рутинной деятельности, создание методического контента при помощи нейросетей, аналитическая обработка данных со стороны ИИ, помощь в оценивании работ учащихся.
Исходя из этого, можно предположить, что системы искусственного разума будут продолжать внедряться в педагогический процесс, поскольку это отвечает различным категориям участников. Однако каждая позитивная инновация в данном случае будет иметь и определенный негативный аспект. Так персонализация образования в результате обработки большого массива данных ИИ-системами приносит определенную пользу, улучшая учебный процесс. Вместе с тем, «робот-педагог» не способен пока к гуманистическому подходу и рассматривает личность учащегося исключительно с рациональных позиций. Поэтому он может нанести ущерб воспитательному процессу, предоставляя школьнику или студенту даже логически правильную информацию. Это объясняется тем, что ИИ не обладает гуманистическими установками, эмпатией и способностью к сопереживанию.
Доступ к личным данным обучающихся также порождает ряд проблем. С одной стороны преподаватель или образовательная организация через системы ИИ получают полную информацию о личности учащегося, что позволяет не только выбрать наилучшую стратегию обучения, но и знать обучающийся в школе или вузе контингент и связанные с этим сложности. С другой стороны исчерпывающая информация о молодых людях в пользовании ИИ, а значит руководителя учебного процесса, нарушает конституционные права обучающихся и создает возможности для манипулирования ими. Речь здесь идет не только о школьниках, но и обо всех гражданах, которые также могут оказаться под информационным контролем ИИ и лиц, управляющих им. В этом случае предлагается использовать строгий контроль над доступом к данным и законодательное регулирование защиты конфиденциальной информации при использовании искусственного разума [8, с. 26].
Внедрение ИИ может усилить неравенство учащихся в получении образования. Обучаясь в одном учебном заведении, молодые люди могут использовать системы искусственного разума различной мощности, что позволит не только получать информацию неодинакового качества, но и приобрести преимущества в написании работ, сдаче экзаменов и зачетов, поскольку ИИ уже способен взять большую часть этих усилий на себя. В конечном счете такое неравенство будет приводить к все большему экономическому расслоению в обществе, что уже и происходит [4, c. 105]. Предлагаемое создание механизмов контроля, обеспечивающих справедливый и равный доступ к образованию на основе разработки этических стандартов, в реальности сталкивается с материальными возможностями отдельных семей и учебных заведений.
Внедрение ИИ будет предоставлять не только возможность получения учащимися большой и разнообразной информации по каждому предмету, но и препятствовать развитию их самостоятельного мышления. Это относится, как к простым учебным операциям, типа счета в уме, так и к более сложным, требующим абстрактного мышления. Быстрота создания презентаций и подготовки к уроку будет снижать активность обучающихся и формировать у них иллюзию легкости получения образования [6, с. 142]. Постоянное взаимодействие с роботом может привести к потере навыков межличностного общения и к зависимости от ИИ. Контролировать данный процесс со стороны педагогов будет сложно, по аналогии с тем, как сейчас уже нелегко изолировать учащихся от их смартфонов во время аудиторных занятий.
Самостоятельность ИИ в образовательном процессе предполагает его постоянное развитие и совершенствование в заданной сфере деятельности. Его профессионализм будет несравним с уровнем подготовки целого педагогического коллектива. В таких условиях искусственный разум может давать рекомендации, которые логически вытекают из обработки больших данных, но противоречат существующим стандартам обучения, в том числе этическим. Здесь придется корректировать деятельность ИИ с антропологических и гуманистических позиций, выяснять алгоритмы его поведения, разрабатывать механизмы обжалования и контроля.
Применение ИИ в учебном процессе окажет и уже оказывает разнонаправленное воздействие на педагогическое сообщество и отдельных преподавателей. Так же, как и в других сферах деятельности, в образовании прогнозируется рост безработицы и усиления неравенства в следствие использования искусственного разума. Резкое расслоение по уровню дохода среди представителей одной профессии давно уже стало реальностью. Наличие одного и того же диплома о высшем образовании не гарантирует сходного уровня заработной платы. Материальное обеспечение преподавателей может в разы отличаться в зависимости от месторасположения учебного заведения (сельская местность, провинция, мегаполис, столица), его престижности, рейтинга и т.п. Даже внутри одного вуза преподаватели с одинаковой ученой степенью получают разную зарплату, чему способствуют различные системы надбавок. При этом воспитательная работа может поощряться значительно выше, чем учебная или научная [5, с. 63-64].
Такой подход к стимулированию труда преподавателей сказывается и на их уверенности в завтрашнем дне. Организационная оптимизация в школе либо вузе в конечном счете имеет своей целью сокращение преподавательского состава за счет повышения производительности их труда. Однако людские возможности в данном случае сильно ограничены, поэтому на любой вид деятельности (учебной, научной, организационной, воспитательной) отводится определенное количество часов. Повысить производительность и соответственно сократить сотрудников можно за счет дистанционного образования, которое в той или иной форме вводится в учебный процесс. Особенно это заметно на примере филиалов. Головной вуз разрабатывает дистанционные курсы, которые транслируются в филиалах, а местные преподаватели, в лучшем случае, проводят семинарские и практические занятия. Такие занятия могут проводить и сотрудники без ученых степеней, что дает значительное сокращение материальных средств. В перспективе дистанционный подход можно дополнить общением студентов с ИИ.
Для преподавателей использование ИИ ведет не столько к освобождению от рутинных операций, сколько к повышению интенсивности труда. Переведение учебной информации в цифру сопровождается ее дублированием. Журналы, ведомости, зачетки все равно приходится заполнять вручную, но дополнительно нужно вносить данные в компьютер. Поскольку соответствующие программы постоянно совершенствуются, их необходимо осваивать, поэтому преподаватель занят не столько подготовкой к занятиям или научной деятельностью, сколько изучением организационно-бюрократических инноваций.
Внедрение ИИ в органы управления педагогическими организациями имеет своей целью повышение скорости и эффективности принятия решений, планирования ресурсов, разработки сценариев и возможных решений для предупреждения кризисным ситуаций. Оперативный анализ большого количества данных позволит быстрее создавать учебные программы и другой методический материал. Это приведет к сокращению управленческого и обслуживающего состава учебных заведений. Одновременно с этим возрастет интенсивность труда оставшегося персонала, поскольку всем придется овладевать новыми технологиями, чтобы уметь работать с искусственным разумом. Фактически это означает резкое повышение уровня конкуренции, так как многие работники, особенно пожилого возраста, будут с трудом осваивать инновации. Цениться будут в первую очередь не педагогические способности и научный вклад, а умения оперативно использовать ИИ. Такая ситуация приведет к снижению образовательного потенциала учебных заведений, по крайней мере на уровне человеческих ресурсов.
Применение ИИ в образовании ставит этическую проблему плагиата и авторского права. Искусственный разум быстро разрабатывает методическое обеспечение по всем существующим учебным предметам. Это могут быть методические рекомендации, пособия, вопросы к экзамену или зачету, тесты, список рекомендованной литературы и т.п. Как в таком случае будет решаться проблема интеллектуальной собственности? ИИ обобщил имеющиеся данные, созданные конкретными преподавателями, и создал новый продукт. Кто будет собственником этого продукта: Министерство образования, руководитель учреждения, разработчик программы ИИ или преподаватели, на основании трудов которых создан новый учебный материал? Однозначного ответа на такой вопрос пока нет.
В вузовском образовании в связи с использованием ИИ-систем выделяют следующие формы академического мошенничества: создание псевдонаучных текстов, имитация фактов, плагиат, искусственное повышение оригинальности текстов выпускных квалификационных работ, неправомерное заимствование фрагментов чужих научных текстов (копипаст), ложное авторство научных работ (гострайтинг), исследовательская недобросовестность и т.п. [см.: 1]. Широко используются имитационные практики: сдача заказных работ, списывание, обращение к интернет-материалам при прохождении тестирования, деление вопросов при подготовке к практическим занятиям, выполнение учебных заданий по шаблону и др. При этом подобные практики рассматриваются как вполне закономерные социальные явления не только студентами, но также преподавателями, администрацией вузов и органами управления образованием [см.: 7]. Социологические опросы показывают, что студенты вузов проявляют повышенный интерес к применению ИИ в учебном процессе, однако далеко не все участники системы высшего образования осведомлены о возможностях и рисках такого применения [2, с. 13].
Подводя итог, следует отметить, что использование ИИ в образовании является реальностью, которая сопряжена не только с определенными удобствами, но и с целым рядом рисков, среди которых большую роль играют этические аспекты. Трансформируется сама духовность в процессе образования, порождая новые комбинации в системах: «учащийся – ИИ», педагог – ИИ», «студент – ИИ – преподаватель», «администрация учебного заведения – ИИ – преподаватель» и т. п. В этих условиях возникает целый ряд принципиально новых этических проблем, связанных с педагогическим взаимодействием, технической аксиологией, трансгуманизмом, информационным разрывом, экономическим и образовательным неравенством, дискриминацией по различным признакам, рационализацией и дегуманизацией педагогического процесса. Все это требует пристального внимания педагогического сообщества и разработки новых правил поведения в образовательной среде.
Список литературы:
1. Бермус А.Г. Академическое мошенничество и имитации в высшей школе как онтологический вызов образованию XXI века // Непрерывное образование: XXI век. 2023. № 1 (41). С. 2-13.
2. Бермус А.Г., Сизова Е.В. Этические аспекты реализации технологий искусственного интеллекта в классическом университете: анализ отношения студенческой аудитории // Непрерывное образование: XXI век. 2025. Т. 13. № 2. С. 2-16.
3. Воронова Д.Ю. Этические аспекты использования искусственного интеллекта в образовательном процессе // Журнал правовых и экономических исследований. 2025. № 2. С. 19-27.
4. Геращенко И.Г., Геращенко А.И. Формы глобализма: история и современность // Наука. Общество. Государство. 2023. Т. 11. № 1 (41). С. 102-110.
5. Геращенко И.Г., Геращенко Н.В. Философия образования: подлинная и мнимая проблемность // Социология образования. 2016. № 8. С. 60-67.
6. Геращенко И.Г., Геращенко Н.В. Культура критики как необходимое условие эффективности образования // Фундаментальные и прикладные исследования кооперативного сектора экономики. 2015. № 5. С. 139-144.
7. Емельянова И.Н., Теплякова О.А., Тепляков Д.О. Имитационные практики в российском университете: формы, причины и последствия // Университетское управление: практика и анализ. 2024. Т. 28. № 1. С. 111-124.
8. Кодекс этики в сфере ИИ [Электронный ресурс] // Альянс в сфере искусственного интеллекта. 2026 [сайт]. URL: https://goo.su/CYQnJ (дата обращения: 15.03.2026).
9. Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года» // Собрание законодательства РФ. 2020. № 35. Ст. 5593.
10. Филимонова И.В. Этическая сторона использования искусственного интеллекта в образовании // Вестник евразийской науки. 2024. Т. 16. № s1. С. 1-10.
11. Ethics guidelines for trustworthy AI [Электронный ресурс] // European Commission [сайт]. 08.04.2019. URL: https://goo.su/mOd9u (дата обращения: 15.03.2026).
Сведения об авторе:
Геращенко Игорь Германович – доктор философских наук, профессор кафедры социологии, общей и юридической психологии Волгоградского института управления – филиала Российской академии народного хозяйства и государственной службы при Президенте Российской Федерации (Волгоград, Россия).
Data about the author:
Gerashchenko Igor Germanovich – Doctor of Philosophical Sciences, Professor of Sociology, General and Legal Psychology Department, Volgograd Institute of Management (branch office) of Russian Presidential Academy of National Economy and Public Administration (Volgograd, Russia).
E-mail: gerashhigor@rambler.ru.
This work is licensed under a Creative Commons Attribution 4.0 International License. 