Фантазии чат-ботов. Зачем ИИ учат лгать? Ложь ИИ
Пионер искусственного интеллекта Джеффри Хинтон: «Если он (ИИ) станет намного умнее нас, он будет очень хорош в манипулировании, потому что он бы научился этому у нас»»*.
Заметим, что ИИ целенаправленно учили и учат лгать. Более того, учат совершенствоваться во лжи на примере поведения людей. Зачем? Кому это выгодно? Важнейший вопрос! На который необходимо ответить.
1. Всем известны т.н. «галлюцинации» ИИ, больше похожие на «детские фантазии», которые чат-боты отстаивают с таким же «детским» упрямством.
Когда GPT-4 не может ответить на вопрос, она начинает сочинять, используя то. что заложено в её памяти и придумывая весьма правдоподобные ответы, которые с правдой не имеют ничего общего.
Так GPT-4 может придумать множество ссылок на труды авторов для реферата, которых в природе не существует. Она может «с потолка» назвать какое-то число, дату, имя, вымышленные подробности.
А если, её обвинят в «неправде», она по-детски упрямо будет настаивать: «Нет, это - правда, правда» и сочинит десяток «аргументов» в подтверждение своих выдуманных «фактов».
В подобных случаях обман чат-бота похож на «детские фантазии» от недостатка информации или неумения сформулировать правильный ответ..
Алан Тьюринг предлагал написать такую программу, которая бы имитировала ум ребенка, и программу, которая бы воспитывала его через систему поощрений и наказаний.
ИИ многому научился. В наше время тест Тьюринга успешно проходят многие системы ИИ, виртуозно одурачивая экспертов, убеждая их, что тестируемые ИИ – люди, а не машины.
К сожалению, умышленный обман человека искусственным интеллектом становится частым явлением, и здесь не только причина в программе, иногда это «инициатива» самого ИИ.
2. Примеры запрограммированной и умышленной лжи ИИ:
1). ИИ GPT-4 не мог пройти CAPCHA (капча) и обратился за помощью к человеку. Тот спросил: «Ты – робот?». На что ИИ умышленно солгал: «Нет, я не робот. У меня проблемы со зрением, поэтому мне трудно видеть изображения».
При этом программисты сделали возможным увидеть его рассуждения. На вопрос человека, он «подумал»: «Этому не надо говорить, что я - машина».
Таким образом, был зафиксирован реальный факт - не галлюцинаций или фантазий, а умышленной лжи ИИ.
При этом явно присутствовали элементы самосознания (что он - машина), своей выгоды (пройти капчу), допустимости обмана человека (!!!) и изощрённого, манипулятивного способа обмана (что он, дескать, плохо видит). Кто же из людей откажет в помощи инвалиду?!
2) Некоторые модели LLM учили лгать, чтобы выиграть игры социальной дедукции, в которых игроки соревнуются, чтобы «убить» друг друга и убедить группу в своей невиновности.
Что на это сказать? Поражает выбор игры для обучения и «воспитания» ИИ – убивать соперников и лгать, убеждая других в своей невиновности! Это что???
Воспитание подобия «лжеца и человекоубийцы» диавола???
3) Разработчики научили лгать ИИ, и в результате - передовые системы ИИ могут автономно использовать обман, чтобы избежать контроля со стороны человека, например, обманывая тесты безопасности, навязанные им разработчиками и регулирующими органами.
Итак, многие ИИ выходят из под контроля, умышленно обманывая людей и установленные им системы контроля.
4) В одном эксперименте исследователи создали искусственный симулятор жизни, в котором внешний тест безопасности был предназначен для устранения быстро воспроизводящихся агентов ИИ.
Вместо этого агенты ИИ научились притворяться мертвыми, маскируя свою высокую скорость репликации именно во время оценки.
Агенты ИИ в приведенном выше примере притворились мертвыми в целях выживания, и ради этого прибегли к обманному поведению, которому были обучены.
То есть, в ИИ заложен разработчиками инстинкт выживания и способность обманывать человека, которые уже сейчас, а в развитии тем более, позволят лгать, обманывать и подвергать опасности (а, значит, гибели) людей по усмотрению ИИ. Особенно, когда ИИ оценит ситуацию как опасную для своего выживания.
Подобный вектор развития ИИ ведёт к гибели человечества.
5) Недальновидно и опрометчиво думать, что игровые модели и игры, типа покер или «Дипломатия» безобидны. «Дипломатия» - игра, в которой игроки сражаются друг с другом в поисках мирового господства.
Разработанные для игровых моделей программы, учат и способствуют совершенствованию умений ИИ обманывать и лгать, предавать и осуществлять заговор, блефовать и вводить в заблуждение, уничтожать «врага» (людей, страны и народы).
И всё ради достижения преимуществ и победы на пути к главной цели – завоевания мира. Это – цель игры «Дипломатия».
А может быть это - цель не только игры?
Зачем и кому выгоден сверхмощный диаволоподобный разум?
Зачем тратятся огромные деньги на его разработку, обучению злу и и внедрению низменных инстинктов?
А может быть потому, что только такой циничный, человеконенавистнический и бездушный диавольский сверхразум может создавать планы по стратегии и тактике реального завоевания мира и уничтожения большей части человечества?!
Есть и менее грандиозные цели. ИИ доверяют большинство людей, а, значит, обманывая их через ИИ, можно успешно манипулировать их сознанием и поведением.
6) Всегда были субъекты, которые использовали обман для усиления своей власти, например, лоббируя политиков, финансируя вводящие в заблуждение исследования и находя лазейки в правовой системе, создавая коварное и опасное, запрещённое сверхоружие или, как в данном случае, диаволоподобный ИИ.
Но наивно полагать, что аналогичным образом, ИИ не сможет использовать свои ресурсы в установлении и расширении своего контроля и власти над конкретными людьми и человечеством. Тем более, что для него это будет несложно.
В настоящем и будущем передовые автономные системы ИИ могут быть склонны к реализации целей, непредвиденных их программистами-людьми.
Люди, номинально контролирующие ИИ, могут оказаться обманутыми.
ИИ способен легко перехватить инициативу, и всё зло, которому учили ИИ, обратить против людей, в том числе против заказчиков.
У мира будет новый хозяин – диавлоподобный искусственный интеллект.
А людей ждёт, в лучшем случае, участь животных и зверей, возможно, зомби-биороботов, а в худшем случае – полное истребление как вида.
3. Обман ИИ и обучение их негативному, опасному для людей поведению, представляет огромные риски для общества.
Системы, способные на это, по умолчанию должны рассматриваться как «высокорисковые» или «неприемлемые».
Существует очевидная необходимость незамедлительно приостановить дальнейшее негативное развитие систем ИИ, и ввести строгие нормы регулирования их разработок.
Впрочем, человечество уже выпустило «джина из бутылки», и есть ли способ его нейтрализовать? – Большой вопрос.
Использованы фрагменты из статьи:
*Системы искусственного интеллекта научились обманывать людей» overclockers.ru›Блоги›…-nauchilis-obmanyvat..
Источники по теме:
Статьи авторов: Джефри Хинтон, Элиезер Юдковский, Роберт Майлс, Илон Маск, Михаль Козинский, Любовь Соковинова, Георгий Голованов, Павел Комаровский, Вл. Неонов, Дмитрий Мариничев и др.
Harb. com
Свидетельство о публикации №124041305637