В школах K-12 по всей стране идет своего рода новая золотая лихорадка: классы по всей стране стремятся внедрить в классы новейшие инструменты искусственного интеллекта, такие как платформы на базе чат-бота ChatGPT.
Алекс Молнар, директор Национального центра образовательной политики (NEPC) Калифорнийского университета в Боулдере, видит опасность в спешке с внедрением ИИ в школы. По его словам, эти платформы используют непрозрачные и обычно запатентованные алгоритмы, что делает их внутреннюю работу загадочной для преподавателей, родителей и учеников.
«У вас есть куча обещаний, которые ИИ выполнит, как обещал», — сказал Молнар, профессор-исследователь Школы образования. «Проблема в том, что в настоящее время нет возможности независимо оценить предъявляемые претензии».
В новом отчете Молнар и его коллеги подчеркивают потенциальные опасности использования ИИ в образовании и призывают к неопределенной «паузе» в интеграции ИИ в обучение K-12. В число соавторов вошли Бен Уильямсон из Эдинбургского университета в Соединенном Королевстве и Фейт Бонинджер, доцент кафедры образования в Университете Калифорнии в Боулдере.
Молнар рассказывает, почему искусственный интеллект является рискованной авантюрой для образования и что могут сделать обеспокоенные родители и другие люди, чтобы принять в этом участие.
Представляют ли новые технологии риски для образования K-12?
Проблемы, связанные с использованием цифровых платформ в школах, возникали еще до широкого внедрения искусственного интеллекта.
Данные учащихся часто не защищены должным образом. Например, имели место всевозможные утечки информации от сторонних поставщиков, и не существует закона или эффективной политики, которая могла бы привлечь их к ответственности. В школах также проводится очень много бета-тестирования. Маркетинговые заявления звучат хорошо, но цифровые платформы часто не дают обещанных результатов и изобилуют техническими проблемами.
Цифровые технологии затруднили или сделали невозможным ответить на фундаментальные вопросы, такие как: кто решает, какой контент учебной программы будет встроен в эти платформы? Кто проверяет их работу?
Может ли ИИ усугубить эти проблемы?
Все проблемы, связанные с цифровыми технологиями, как правило, усугубляются искусственным интеллектом.
Так называемый ИИ использует алгоритмы и огромные вычислительные мощности для получения результатов, основанных на бесчисленных вычислениях вероятностей. Например, какова вероятность того, что следующим словом в последовательности будет слово «сок»? Эти расчеты не дают «истины» или даже, что обязательно, точности. Они производят вероятностный результат.
В настоящее время создание и работа алгоритмов ИИ в значительной степени находятся вне поля зрения общественности и без какой-либо общественной ответственности. Тем не менее, как маркетологи, так и государственные структуры подталкивают школьников к тому, чтобы они были в авангарде этой предполагаемой цифровой революции, передавая все больше и больше школьных процессов технологам, практически не имеющим знаний в области педагогики или школьной программы.
Многие люди называют инструменты искусственного интеллекта «черным ящиком». Что это значит?
Если использовать старомодное объяснение, представьте, что вы сказали: «Я бы хотел увидеть учебник географии для моего ребенка». Вы можете сказать: «У меня здесь кое-какие проблемы». Вы могли бы поговорить об этом с кем-нибудь, с кем-нибудь, кто мог бы объяснить эти проблемы. Но с ИИ вы не сможете этого сделать.
Вы не можете прийти и спросить, например: «Как сработала система подсчета очков?» Ответ будет: «Ну, мы не знаем». «Как мы узнаем, что этот контент верен?» — Ну, мы этого тоже не знаем.
Есть ли опасения, что ИИ может принимать решения вместо педагогов или родителей?
Вы можете использовать ИИ, чтобы определить, обманул ли ребенок. Вы используете его, чтобы определить, должен ли ребенок участвовать в той или иной программе. Вы можете использовать ИИ, чтобы решать самые разные вопросы, касающиеся ребенка, и ребенок оказывается взаперти, практически не имея возможности обратиться за помощью.
Родители могут жаловаться сколько угодно. Они по-прежнему не могут получить информацию об основании решения, принятого ИИ, поскольку ее нет у принципала. У учителя его нет. У суперинтенданта его нет. Он спрятан за фирменной занавеской частного продавца.
Вы выступаете за «паузу» в использовании ИИ в школах. Как это будет выглядеть?
Решением могло бы стать то, что законодательные органы штатов по закону, скажем, по существу: Государственные школы в этом штате не могут принимать программы искусственного интеллекта до тех пор, пока эти программы не будут сертифицированы этим государственным органом — им придется создать такой орган. Он рассмотрел эти программы. В нем говорится, что они безопасны для использования, и он определяет, какие виды использования программы подходят и для кого.
Другими словами, в школах ничего не происходит до тех пор, пока у нас не будет законодательной и нормативной базы, а также институционального потенциала для независимой оценки платформ ИИ, предлагаемых для использования в школах.
Что могут сделать родители или кто-либо еще, кого беспокоит эта проблема?
Требуйте от ваших представителей серьезно отнестись к этим вопросам — прежде всего, законодательно закрепить паузу во внедрении ИИ в школах. Период. Затем они могут попросить своих представителей создать государственный орган, призванный регулировать использование ИИ в школах.
Это политическая проблема. Это не техническая проблема.
У нас долгая история технологических компаний, которые не следуют своим собственным правилам, которые сами по себе смехотворно неадекватны. Для любого, кто серьезно пытается понять, как ответственно использовать ИИ в образовании, если он не говорит о политических действиях, он на самом деле не говорит. Технологи нас не спасут.
Больше информации:
Уильямсон Б., Молнар А. и Бонингер Ф. (2024). Время сделать паузу: без эффективного общественного контроля ИИ в школах принесет больше вреда, чем пользы. Боулдер, Колорадо: Национальный центр образовательной политики. nepc.colorado.edu/publication/ai
Предоставлено Университетом Колорадо в Боулдере.
Цитирование : Вопросы и ответы: Исследователи предупреждают об опасности и призывают к паузе в внедрении ИИ в школы (22 марта 2024 г.), получено 22 марта 2024 г. с https://phys.org/news/2024-03-qa-danger-ai-schools.html.
Этот документ защищен авторским правом. За исключением любых добросовестных сделок в целях частного изучения или исследования, никакая часть не может быть воспроизведена без письменного разрешения. Содержимое предоставлено исключительно в информационных целях.