Пять углов



Спецпроекты
Развлечения
Лайфхаки
Студентам
Школьные новости
Культура
Психология
ВОПРОС-ОТВЕТ
Колонка редактора
Наши опросы
Вопрос в редакцию
На практику — в ПУ!
О нас
Контакты
Архив номеров
МЕНЮ
Журнал старшекласcников
|
Читайте нас в Telegram ЧитатьЧитайте нас Вконтакте Читать

Мы в Telegram
Изнутри — проект о профессияхолимпиадыСочинениеНа практику — в ПУ!олимпиадапрофессииподготовка к ЕГЭволонтерствовопрос-ответМинистерство образованиястудентамподросткивузыОГЭсоветыувлеченияфильмы и сериалыкиноКомпьютерные игрыВостребованныеинтересные фактыотношенияКорейская волнакаталог сочиненийЕГЭ-2025ТеатрспортискусствокультураЕГЭ 201875 лет ПобедыработатворчествоисследованиеопросВУЗитоговое сочинениеКаталог профессийна практику — в ПУ!Поступление 2024русский языкличный опытСПбГУРособрнадзорКуда сходитьКем бытьДевятиклассникамСанкт-ПетербургпоступлениетрендыУчебажурфакподготовка к ОГЭсаморазвитиерейтингрецензияразвлеченияфестивальродителижурналистикачто посмотретьКаталог вузовпрофориентациястудентыхоббиУчителяКонцерткарьерашколаЧто почитатьКнижная полка ПУновостиВаши историиКолледжипоступление-2025подготовка к экзаменамМГУсоветы психологалайфхакиНовый годкуда поступатьЕГЭ-2024мода и стильпутешествиябуллингобразованиелитератураэкзаменыисторияПсихологиямузыкаинтервьюновости кинонеделиЕГЭ 2024книги
ТОП авторов
Елизавета Уварова

Опубликовано статей: 14

Ольга Чибиряк

Опубликовано статей: 35

Илья Воробьев

Опубликовано статей: 10

Екатерина Волгина

Опубликовано статей: 16

Дарья Хрипунова

Опубликовано статей: 8

София Харламова

Опубликовано статей: 9


Пять углов

Убедительная ложь: когда ИИ перестанет нам врать?

8 минут

Эксперт объяснил, кто научил нейросети плохому и что теперь делать

Недавно мы в редакции провели эксперимент. Задали ChatGPT простой вопрос: откуда пошло выражение «Загляни за горизонт» (так называется одна из наших статей) ? Нейросеть уверенно ответила, что это просто образное выражение без конкретного источника. для тех кто не знает, это  одна из притч Лао Цзы. Стоило нам напомнить об этом, и ChatGPT тут же «согласился».

Это вызвало у нас резонный вопрос: насколько вообще можно доверять искусственному интеллекту, если даже в элементарном он путается, но говорит с полной уверенностью?  

А если представить, что школьник или студент пишет курсовую, ориентируясь только на ИИ — что он в итоге получит? нам в редакцию часто приходят такие статьи. Благодаря нашему опыту мы можем отличить «перо робота» от пера человека, но честно говоря нас это пугает. 

Об этом мы поговорили с главой Центра безопасного интернета Урваном Парфентьевым, который возглавляет его с момента создания в 2008 году. 

«Искусственный интеллект» — это не интеллект, это пиар-термин, придуманный фантастами
Урван Парфентев

— Почему нейросети так уверенно выдают ложь?

— «Искусственный интеллект» — это не интеллект, это пиар-термин, придуманный фантастами. На самом деле это просто очень развитые алгоритмы. Программы, которые анализируют массивы данных и выдают результат на основе вероятности. Не истины, не смысла, а вероятности. Они ничего не придумывают, не думают, не понимают, что говорят. Они анализируют, усредняют и делают вывод, какой ответ, скорее всего, ожидается. Все. 

Человеческий мозг склонен верить уверенности. Если ИИ отвечает твердо — кажется, что он прав. Особенно если ты школьник, пишешь реферат и не хочешь вникать. Это и есть цифровая ловушка.
Урван Парфентьев

То есть их задача — не быть правыми, а быть похожими на правду?

— Совершенно верно. Эти алгоритмы оценивают информацию не по научному весу, а по массовости. Если в интернете много одинаковой ерунды — ИИ будет считать это достоверным. Поэтому использовать его можно только как заготовку. Предварительный черновик. Всё, что выходит из нейросети — будь то текст, картинка или видео — должно проверяться, правиться, вычитываться человеком. Только так.

Но он же часто звучит очень убедительно. Прямо как мошенник.

— Вот в этом и опасность. Человеческий мозг склонен верить уверенности. Если ИИ отвечает твердо — кажется, что он прав. Особенно если ты школьник, пишешь реферат и не хочешь вникать. Это и есть цифровая ловушка. 

— Как с этим бороться?

— Кстати, тут важный момент: многие любят говорить о «цифровой гигиене». Я бы не стал использовать этот термин — так как он пришел из психологии, был в моде в 2010-х, потом ушел, теперь снова всплыл. Лучше говорить об информационно-просветительской работе. То есть просто: научиться проверять все, что ты читаешь. Это и есть защита.

Заменяет — не значит делает лучше: например, к 23 февраля в какой-нибудь афише вдруг оказывается французский гусар времен Наполеона или гитлеровский солдат — вместо русского солдата.
Урван Парфентьев

— А можно сделать ИИ «честнее»? Настроить его на правильные данные?

— Теоретически — да. Все зависит от того, чем его «кормить». Если алгоритм учится на токсичных или фейковых источниках — он и выдавать будет чушь. Хотите, чтобы он отвечал правильно? Давайте ему качественные данные. Это как с человеком — чему учишься, тем и становишься. Но даже при идеальной базе результат все равно должен проходить через человека. На входе (чем учим) и на выходе (что получилось).

А будет ли нейросеть помощником в будущем? Спустя 5–10 лет, она научится «не врать»?

— Зависит от того, каким будет интернет. Если пространство будет качественным — и ИИ будет выдавать что-то получше. Но полностью ему доверять нельзя. Как бы технологии ни развивались, финальный контроль всё равно останется за человеком.

Но ведь он уже заменяет многих — копирайтеров, дизайнеров, переводчиков…

— Заменяет — не значит делает лучше. Посмотрите, что бывает, когда ему доверяют работу с визуальным контентом: например, к 23 февраля в какой-нибудь афише вдруг оказывается французский гусар времен Наполеона — вместо русского солдата. Или гитлеровский солдат вместо красноармейца. Это не фантазия, такие случаи были.

Нейросети плохо ориентируются в контексте. Они не различают нюансы. Значит, любой результат — текст, иллюстрация, видео — нужно тщательно сверять с реальностью, искать, откуда это взято, и смотреть, нет ли визуальных или смысловых несостыковок
Если вы пишете что-то действительно важное — может быть, действительно проще сделать с нуля

Звучит трудоемко. Может, проще вообще не использовать?

— Я скажу так: если вы пишете что-то важное — может быть, действительно проще сделать с нуля. Даже многие творческие люди предпочитают так: не редактировать ИИ-черновик, а написать свое. Потому что времени и сил уходит меньше.

Но если использовать — то только как инструмент. И с головой.

И последний вопрос: как не попасться на «нейрообман» в повседневной жизни? Есть какое-то правило?

— Есть три. Первое — все проверяй. Информация всегда должна анализироваться, особенно если она влияет на решение. Второе — не впадай в эйфорию и не паникуй. Мошенники, ИИ, пропаганда — все это работает на эмоциях. Третье — держи информационный кругозор. Следи за инфоповодами, понимай, на чем могут сыграть. И тогда шансов ошибиться будет гораздо меньше.

Получается, что «врать» искусственный интеллект научили мы сами. Пусть неосознано, но мы подали плохой пример и теперь человечество из-за этого страдает. Поучительный урок. 

Мошенничество или полезный инструмент: преподаватели рассказывают об отношении к ИИ
О студенческом обмане и пользе ИИ рассказывают преподаватели трех российских вузов
Читать далее
Фото: unsplash.com 
Эксперт объяснил, кто научил нейросети плохому и что теперь делать


Комментировать

Новые материалы

Читайте также

Привязка статьи к блоку

ID статьи:
Сохранить
Самое читаемое
Яндекс.Метрика
ООО «Пять углов» Контакты:
Адрес: 9-я Советская, д.4-6 191015 Санкт-Петербург
Телефон:8 (812) 274-35-25, Электронная почта: mail@5uglov.ru