Недавно мы в редакции провели эксперимент. Задали ChatGPT простой вопрос: откуда пошло выражение «Загляни за горизонт» (так называется одна из наших статей) ? Нейросеть уверенно ответила, что это просто образное выражение без конкретного источника. для тех кто не знает, это одна из притч Лао Цзы. Стоило нам напомнить об этом, и ChatGPT тут же «согласился».
Это вызвало у нас резонный вопрос: насколько вообще можно доверять искусственному интеллекту, если даже в элементарном он путается, но говорит с полной уверенностью?
А если представить, что школьник или студент пишет курсовую, ориентируясь только на ИИ — что он в итоге получит? нам в редакцию часто приходят такие статьи. Благодаря нашему опыту мы можем отличить «перо робота» от пера человека, но честно говоря нас это пугает.
Об этом мы поговорили с главой Центра безопасного интернета Урваном Парфентьевым, который возглавляет его с момента создания в 2008 году.

— Почему нейросети так уверенно выдают ложь?
— «Искусственный интеллект» — это не интеллект, это пиар-термин, придуманный фантастами. На самом деле это просто очень развитые алгоритмы. Программы, которые анализируют массивы данных и выдают результат на основе вероятности. Не истины, не смысла, а вероятности. Они ничего не придумывают, не думают, не понимают, что говорят. Они анализируют, усредняют и делают вывод, какой ответ, скорее всего, ожидается. Все.
— То есть их задача — не быть правыми, а быть похожими на правду?
— Совершенно верно. Эти алгоритмы оценивают информацию не по научному весу, а по массовости. Если в интернете много одинаковой ерунды — ИИ будет считать это достоверным. Поэтому использовать его можно только как заготовку. Предварительный черновик. Всё, что выходит из нейросети — будь то текст, картинка или видео — должно проверяться, правиться, вычитываться человеком. Только так.
— Но он же часто звучит очень убедительно. Прямо как мошенник.
— Вот в этом и опасность. Человеческий мозг склонен верить уверенности. Если ИИ отвечает твердо — кажется, что он прав. Особенно если ты школьник, пишешь реферат и не хочешь вникать. Это и есть цифровая ловушка.
— Как с этим бороться?
— Кстати, тут важный момент: многие любят говорить о «цифровой гигиене». Я бы не стал использовать этот термин — так как он пришел из психологии, был в моде в 2010-х, потом ушел, теперь снова всплыл. Лучше говорить об информационно-просветительской работе. То есть просто: научиться проверять все, что ты читаешь. Это и есть защита.

— А можно сделать ИИ «честнее»? Настроить его на правильные данные?
— Теоретически — да. Все зависит от того, чем его «кормить». Если алгоритм учится на токсичных или фейковых источниках — он и выдавать будет чушь. Хотите, чтобы он отвечал правильно? Давайте ему качественные данные. Это как с человеком — чему учишься, тем и становишься. Но даже при идеальной базе результат все равно должен проходить через человека. На входе (чем учим) и на выходе (что получилось).
— А будет ли нейросеть помощником в будущем? Спустя 5–10 лет, она научится «не врать»?
— Зависит от того, каким будет интернет. Если пространство будет качественным — и ИИ будет выдавать что-то получше. Но полностью ему доверять нельзя. Как бы технологии ни развивались, финальный контроль всё равно останется за человеком.
— Но ведь он уже заменяет многих — копирайтеров, дизайнеров, переводчиков…
— Заменяет — не значит делает лучше. Посмотрите, что бывает, когда ему доверяют работу с визуальным контентом: например, к 23 февраля в какой-нибудь афише вдруг оказывается французский гусар времен Наполеона — вместо русского солдата. Или гитлеровский солдат вместо красноармейца. Это не фантазия, такие случаи были.
Нейросети плохо ориентируются в контексте. Они не различают нюансы. Значит, любой результат — текст, иллюстрация, видео — нужно тщательно сверять с реальностью, искать, откуда это взято, и смотреть, нет ли визуальных или смысловых несостыковок
Звучит трудоемко. Может, проще вообще не использовать?
— Я скажу так: если вы пишете что-то важное — может быть, действительно проще сделать с нуля. Даже многие творческие люди предпочитают так: не редактировать ИИ-черновик, а написать свое. Потому что времени и сил уходит меньше.
Но если использовать — то только как инструмент. И с головой.
— И последний вопрос: как не попасться на «нейрообман» в повседневной жизни? Есть какое-то правило?
— Есть три. Первое — все проверяй. Информация всегда должна анализироваться, особенно если она влияет на решение. Второе — не впадай в эйфорию и не паникуй. Мошенники, ИИ, пропаганда — все это работает на эмоциях. Третье — держи информационный кругозор. Следи за инфоповодами, понимай, на чем могут сыграть. И тогда шансов ошибиться будет гораздо меньше.
Получается, что «врать» искусственный интеллект научили мы сами. Пусть неосознано, но мы подали плохой пример и теперь человечество из-за этого страдает. Поучительный урок.