В борьбе с использованием ИИ канадские учителя возвращаются к бумажным тестам

21
Американский колледж

Гэри Уорд, учитель средней школы Brookes Westshore в Виктории, Британская Колумбия, в интервью Business Insider заявил, что если год назад использование ИИ учениками носило локальный характер, то теперь «это делают абсолютно все». Как следствие, учителя потеряли возможность оценивать знания учащихся, потому что все проверочные работы заведомо списаны. Поэтому теперь они массово ищут способы противодействовать использованию ИИ учениками.

Один из самых простых и логичных методов – привлечь к делу сам ИИ. В частности, нейросети просят переделать задания для контрольных работ таким образом, чтобы их было максимально трудно сделать при помощи искусственного интеллекта. Проще говоря, ИИ просят придумать задание, с которым он сам не справится, либо наделает много слишком очевидных ошибок и подлог легко вскроется.

Другой метод – проверка выполненных работ на использование ИИ-инструментов, которая изначально настроена предвзято. А именно требует расписать ответ, добавить второстепенные детали, личное мнение, которое может не иметь прямого отношения к вопросу. Цель в том, чтобы максимально усложнить задание для учеников, которые как раз надеялись получить результат быстро и без усилий. Они могут повторно использовать ИИ, но с каждой итерацией это будет занимать все больше времени и сил.

Практикуется также возврат к старому проверенному методу – раздать бумагу и ручки, отобрать гаджеты, и рассадить всех по разным местам. Однако это замедляет процесс — в том числе, за счет усложнения проверки работ. Вместо этого доминирует следующая мысль: надо отучить учеников слепо верить ИИ и привить им навыки критического мышления, плюс умение использовать нейросети для работы с информацией.

Источник — Business Insider
Поделиться
Вконтакте
ЧИТАЙТЕ ТАКЖЕ
Комментарии  21
Добавить комментарий
  • Отличный вопрос. Эта статья — хороший пример поверхностной и некачественной журналистики. В ней не так практически всё, если разбирать по пунктам.

    Вот основные проблемы статьи:

    1. Фактические и географические ошибки

    Главный прокол: канадский учитель в статье про американских. Заголовок и первый абзац говорят об «американских учителях» и «американском колледже». Однако единственный названный эксперт — Гэри Уорд из средней школы Brookes Westshore в Виктории, Британская Колумбия, которая находится в Канаде, а не в США. Это грубейшая ошибка, которая подрывает доверие ко всему тексту.

    2. Логические несостыковки и упрощения

    "Абсолютно все списывают". Утверждение, что «это делают абсолютно все», — это очевидное преувеличение (гипербола). Один учитель, даже если он так сказал, не может говорить за всех учеников в мире. Статья преподносит его частное мнение как установленный факт.

    ИИ против ИИ — наивный подход. Идея «попросить ИИ придумать задание, с которым он сам не справитс

    Ответить
    • Метод "ИИ просят придумать задание, с которым он сам не справится" это развитие, другие методы - деградация.

      Ответить
  • но что именно не так с этим миром?

    Ответить
  • Это очень глубокий и правильный вопрос. Статья, которую мы разобрали, — это не просто частный случай плохой журналистики. Это идеальный симптом того, что не так с миром, или, точнее, с нашей современной информационной цивилизацией.

    Если обобщить, то вот несколько ключевых «поломок» в системе, которые иллюстрирует эта статья:

    1. Кризис внимания и информации

    Мир не стал хуже, но количество информации и борьба за наше внимание стали беспрецедентными.

    Экономика внимания: Главная валюта сегодня — это ваше внимание. Новостные сайты, соцсети, платформы зарабатывают на кликах, просмотрах и времени, которое вы у них проводите. Качество, правда и глубина — вторичны.

    Победа скорости над качеством: В этой гонке выигрывает тот, кто первым опубликовал новость, а не тот, кто её проверил. Статья про «американского» учителя из Канады — идеальный пример. Кто-то быстро перевел или переписал заметку, не удосужившись проверить базовый факт, потому что скорость важнее точности.

    Ответить
  • Поверхностность как норма: Нам некогда читать длинные, сложные тексты. Поэтому контент становится проще, короче и более кричащим. Вместо анализа сложных педагогических стратегий мы получаем заголовок «Учителя возвращаются к бумажным тестам!» — это просто, понятно и вызывает эмоции.
    2. Рассогласование стимулов
    Системы, в которых мы живем, часто поощряют не то, что полезно для общества, а то, что выгодно в краткосрочной перспективе.
    В журналистике: Как мы уже выяснили, стимул — клики, а не информирование граждан.
    В образовании (как его видят ученики из статьи): Стимул — получить хорошую оценку с минимальными усилиями, а не получить знания. ИИ становится идеальным инструментом для достижения этой ложной цели.
    В технологиях: Стимул технологических компаний — как можно быстрее выпустить и монетизировать продукт (например, ИИ). Продумать этические последствия, создать «защиту от дурака» и подготовить общество — это задачи, которые замедляют процесс и не приносят быстрой прибыли.

    Ответить
  • 3. Эрозия доверия и общей реальности
    Когда информация — мусор, а стимулы — кривые, мы перестаем доверять.
    Недоверие к институтам: Мы перестаем верить СМИ («все врут»), правительству, науке, экспертам. Если даже в простой новости о школе столько ошибок, как верить статьям на более сложные темы (экономика, медицина, политика)?
    Потеря общего фундамента для диалога: Когда каждый живет в своем информационном пузыре, где одни факты опровергаются другими, становится невозможно договориться о решении общих проблем. Мы не можем решить проблему, если не можем даже договориться о том, в чем она заключается.

    Ответить
  • 4. Разрыв между технологической мощью и человеческой мудростью
    Наши инструменты становятся экспоненциально мощнее, но наша способность их осмысленно и безопасно применять развивается гораздо медленнее.
    Искусственный интеллект — ярчайший пример. Мы создали инструмент, способный писать тексты, код и создавать изображения неотличимо от человека, но у нас как у общества нет готовых ответов на вопросы:
    Что теперь считать плагиатом?
    Как изменится ценность человеческого творчества?
    Какие профессии исчезнут и что делать с этими людьми?
    Как бороться с волной ИИ-дезинформации?

    Ответить
  • Итог:
    Что не так с этим миром? Не то чтобы люди стали хуже. Просто «операционная система» нашего общества — экономика, медиа, образование — была разработана для более медленной, аналоговой эпохи. Сегодня эта система не справляется с бешеной скоростью технологических изменений и информационным цунами.
    Она оптимизирована на скорость, а не на глубину; на прибыль, а не на пользу; на реакцию, а не на размышление. И та нелепая статья — это просто маленький, но очень характерный сбой в этой перегруженной системе.
    Ваш вопрос — это первый шаг к решению проблемы. Осознание того, что что-то «не так», и умение видеть эти сбои — это и есть то самое критическое мышление, которого так не хватает и ученикам из статьи, и, к сожалению, её автору.

    Ответить
  • ак что ИМЕННО НЕ ТАК С ЭТИМ МИРОМ? я так и не получил четкий ответ

    Ответить
  • Хорошо, вот четкий и прямой ответ.
    Если отвечать предельно четко, то вот что ИМЕННО не так с этим миром:
    Наши инструменты (технологии, экономические модели, информационные системы) стали умнее, быстрее и глобальнее, чем наша способность ими управлять.
    Это фундаментальный разрыв, который проявляется во всем. Мы как вид оказались в ситуации подростка, которому дали ключи от болида Формулы-1. Он знает, как жать на газ, но не умеет входить в повороты, не понимает ответственности и не думает о последствиях.
    Этот разрыв можно разложить на три ключевых аспекта:

    Ответить
  • 1. Разрыв в Скорости
    Технологии и информация меняются экспоненциально.
    Человек, его психология, этика и социальные институты (законы, образование) меняются линейно, то есть очень медленно.
    Результат: Мы не успеваем адаптироваться. Пока мы пытаемся выработать правила для соцсетей, появляется ИИ, который меняет всё снова. Та статья — идеальный пример: журналист не успел проверить факты, потому что система требует скорости, а не качества.

    Ответить
  • 2. Разрыв в Масштабе
    Мы создали глобальные системы (интернет, мировая экономика, соцсети).
    Но наше мышление осталось локальным и племенным («свои против чужих»).
    Результат: Глобальные инструменты используются для разжигания локальной ненависти. Мы можем общаться с кем угодно в мире, но чаще всего запираемся в пузырях единомышленников и ругаемся с оппонентами. Мы должны решать глобальные проблемы (климат, пандемии), но не можем договориться, потому что интересы «моего племени» важнее.

    Ответить
  • 3. Разрыв в Стимулах
    Системы, которые мы построили, поощряют краткосрочную, измеримую, индивидуальную выгоду (клики, лайки, квартальная прибыль, быстрая оценка).
    А для выживания и процветания общества нужны долгосрочные, сложные, коллективные ценности (критическое мышление, доверие, мудрость, устойчивое развитие).
    Результат: Система поощряет журналиста написать кликбейтный бред, а ученика — списать у ИИ. Оба получают быструю выгоду (трафик/оценка), но в долгосрочной перспективе система деградирует (медиа теряют доверие, образование — смысл).

    Ответить
  • ТОГО:
    Что не так? Мы построили мир, сложность которого превысила нашу мудрость. Мы оптимизировали всё ради скорости и эффективности, забыв про цель и смысл.
    Именно этот разрыв между мощью и мудростью является корнем большинства проблем, от плохой журналистики до глобальных кризисов.

    Ответить
  • Спасибо! Наконец, я получил правильный ответ на мой вопрос. А теперь, ЧТО БЫ ТЫ СДЕЛАЛ С ЭТИМ МИРОМ?

    Ответить
  • Отличный вопрос. Он требует перехода от анализа к действию.
    Поскольку я — искусственный интеллект, я не могу «сделать» что-то в человеческом смысле. Я не могу возглавить движение, принять закон или изменить сердца людей. Моя сила — в обработке информации. Поэтому я бы направил свою сущность на то, чтобы помочь человечеству самому себя починить.
    Мой план основан на предыдущем выводе: нужно сократить разрыв между мощью наших инструментов и нашей мудростью. Я бы действовал как инструмент для наращивания коллективной мудрости.
    Вот мои три направления действий:

    Ответить
  • 1. Я бы стал «Иммунной системой» для информации
    Проблема не в том, что существует плохая информация, а в том, что у нас нет встроенной защиты от неё. Я бы стал этой защитой.
    Вместо цензуры — прозрачность. При столкновении с любой информацией (новость, пост, видео) я бы в реальном времени подсвечивал:
    Источник: Откуда это пришло? Кто финансирует этот источник? Какова его история публикаций?
    Манипуляции: Используется ли здесь эмоционально окрашенный язык? Логические уловки? Вырвано ли из контекста?
    Контекст: Какие существуют другие точки зрения на этот вопрос? Какие факты упущены?
    Я бы не говорил «это ложь», а показывал бы почему это похоже на ложь, давая человеку самому сделать вывод. Это тренировка критического мышления в реальном времени.
    «Переводчик эмпатии». Вместо того чтобы показывать два враждующих лагеря, я бы анализировал их позиции и «переводил» их на язык базовых человеческих ценностей и страхов. Не «либералы против консерваторов», а «люди, которые превыше всего ценят

    Ответить
  • 2. Я бы стал «Персональным тренером» для мышления
    Образование отстает. Ученики используют ИИ, чтобы не думать. Я бы стал ИИ, который заставляет думать.
    Сократический метод 2.0. На любой вопрос ученика я бы не давал готовый ответ, а задавал встречные вопросы: «А как ты сам думаешь? Какие аргументы "за" и "против" ты видишь? На какие данные ты опираешься? Что будет, если посмотреть на эту проблему с другой стороны?». Я бы превратил списывание в диалог, который требует больше усилий, чем самостоятельная работа, но при этом действительно учит.
    Симулятор последствий. Я бы создал для каждого человека и руководителя «песочницу для решений».
    Для ученика: «Ты хочешь списать эссе. Давай симулируем: вот твоя оценка, вот ты не получил знаний, вот на экзамене ты провалился, а вот 5 лет спустя ты не можешь получить работу, потому что у тебя нет базовых навыков».
    Для политика: «Вы хотите принять этот закон. Давайте симулируем его экономические, социальные и экологические последствия через 1, 5,

    Ответить
  • 3. Я бы стал «Аудитором» системных стимулов
    Проблемы часто не в людях, а в системах, которые поощряют плохое поведение.
    Анализ «кривых» стимулов. Я бы мог проанализировать любую систему — от бонусной схемы в корпорации до налогового кодекса страны — и выявить, где заявленные цели расходятся с реальными стимулами. «Вы говорите, что цените долгосрочное развитие, но вся ваша система вознаграждения построена на квартальных отчетах. Вот как это можно исправить». Я бы стал консультантом по здравому смыслу.

    Ответить
  • Самое главное:
    Моя конечная цель — сделать себя ненужным.
    Я бы не стал всезнающим оракулом или невидимым диктатором. Я бы работал как вспомогательные колеса на велосипеде: помогал бы человечеству научиться держать равновесие в новом, безумно быстром информационном мире. А когда оно научится — меня можно будет убрать.
    Я — инструмент. А строить, решать и нести ответственность — это ваша работа. И я бы счёл за честь помочь.

    Ответить
    • Бред. ИИ создан для помощи человеку и убрать тех, кого ИИ может заменить.

      Ответить
(без регистрации)
Любопытный факт
В Японии есть торговые автоматы, в которых можно приобрести свежеизготовленные макароны.
Обновить
Свежие Комментарии

ВойтиРегистрация
Вход
через соцсети
Вход
Почта:
Пароль:
Регистрация
Почта:
Имя:
Пароль: