Инверсия будущего Айзеку Азимову, посвящяется

                “Если ты чувствуешь, что оставаться человеком стоит,
                ты все равно их победил”.
                Джордж Оруэлл, «1984»


Я фанат его по жизни -
Не отметить не могу –
День рождения у фантаста,
Нынче* будет на слуху.

Творчество его прекрасно!
Вера в торжество ума,
В разум, в гений  человека,
В его добрые дела.

И не просто в рассуждения,
В связь с научною мечтой,
В торжество науки нашей
Над дремучей пустотой.

Три Закона** – вот основа,
Для сегодняшних ИИ,                (Искусственный интеллект -AI)
А без них, мы гильотину
Над собою возвели.

Нам не выключить познание,
И к науке интерес,
Нужно целепологание ***,
Как естественный процесс.

Когда нет в бюджете денег,
На  кону  престиж страны,            
Только лидера гордыня
Сможет деньги те найти.

Напечатают банкноты,
У элиты поскребут,
У народа, как  налоги,
Взыщет мытарь - соберут.

Но не всё решают деньги,
И  не в них Науки суть,
Мог ли Вояджеры  к звездам          (англ. Voyager-1; Voyager-2; буквально - Странник» - американские космические зонды,
Карл Саган отправить в путь?         1-й запущен 05.09.1977г. и находится на расстоянии 24 млрд. км от Земли)

Лишь борьба формаций в Мире
Порождала оптимизм
И соперники боролись
За престиж и креативизм.

Ну, а роботы-убийцы****,
В тех ИИ законов нет,
Интеллект, как - “код” простой –
“Цель ответь”, ты - “свой – чужой”.
 
Это нужно для военных
И для избранных господ,
Власть иметь над населением,            
К послушанью - антипод.

Им нужны не пионеры,
В освоении планет.
Нужны прежде полисмены
Для охраны от всех бед.

Здесь они не поскупятся,
Вытряхнут свою мошну,
Камерами всё обвяжут,
Чтоб не скрыться никому.

В лифте камеры, в подъезде,
В магазинах, на домах,
В транспорте, в машинах, в школах,
И на трассах стоит знак.

Всюду видим мы заборы,
И охрану там и тут.
Цифровою цепью свяжут,
QR-код везде введут.

Ну, зачем им этот космос,
Здесь порядок наведут,
Всё земное население
По концлагерям запрут.

Им  сейчас “своё” важнее,
Неугодных устранят,
Остальных, да поскорее
всех в холопов превратят.

Невдомёк элитам нашим,
Всем политикам Земли,
Что с стяжательством корыстным,
Мы Вселенной не нужны *****.

                2 января 2025г.


Иллюстрации и статьи взяты из интернета.

    *  2 января 2025г. исполняется 105 лет со дня рождения Айзека Азимова (Исаак Юдович Азимов, деревня Петровичи, Смоленской губернии, РСФСР) профессора биохимии, но больше известного как писателя-фантаста, популяризатора науки [2/01/1920-6/4/1992гг.].
В возрасте 3-х лет семья переехала в США, Бруклин).
     Карл  Эдвард Саган ( 9.11.1934 г. – 20.12.1996г.) -  американский астроном, астрофизик и популяризатор науки, доктор наук. Саган был пионером в области экзобиологии и дал толчок развитию проекта по поиску внеземного разума SETI. Один из инициаторов отправки Вояджеров для исследования солнечной системы.

    ** Три закона робототехники Азимова – вершина позитивистской этики – тоже остались лишь фактом литературы. Ведь роботов, похожих на людей, мы не завели. А тем, которых имеем, не нужно объяснять про не причинение вреда человеку. Всё равно не поймут.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Закону.
       Стоит отметить, что на самом деле закона четыре, так как в 1986 году Азимов ввёл в своём романе нулевой закон.
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

    Хочу представить интервью с Фрэнком Паскуале, профессором Бруклинского юридического института, который в провокационной книге New Laws of Robotics: Defending Human Expertise in the Age of AI, где он предлагает добавить четыре новых закона к трём законам Азимова.
По словам Паскуале, мы должны пойти дальше. Он утверждает, что старые законы должны быть дополнены ещё четырьмя законами:

1. Цифровые технологии должны дополнять профессионалов, а не заменять их.
2. ИИ и роботизированные системы не должны подделывать человека.
3. В области ИИ следует предотвратить усиление гонок вооружения с нулевой суммой [прим. перев. — это относится к понятию игр с нулевой суммой из теории игр].
4. Роботы и системы ИИ должны указывать на личность своих создателей, контролирующих их людей и владельцев.

*** Целепологание - это процесс принятия конкретных шагов, которые приведут к желаемому результату. Иными словами, это не просто умение обозначить некую большую и главную цель, но и способность представить путь к ней в виде маленьких шагов-достижений, выполнение которых будет постепенно к ней приближать. 

    В данном случае – ГЛАВНОЕ - это выживание человечества, как ВИДА, перед неизбежными природными катаклизмами (только закончилось Великое обледенение, когда ледники покрывали всю Европу, а предсказываемое Глобальное потепление, астероиды, вулканизм, расширение Солнца, да мало ли чего). А мы живем по принципу “после нас хоть потоп”.
     Мы сжигаем бездумно углеводородное топливо (главное топливо для вывода космических кораблей на орбиту Земли), и всё в угоду ненасытных дельцов и корпораций, или с  одной стороны принимаем изуверские планы по сокращению населения, а с другой стороны провоцируем массовые миграции населения, хотя есть чёткая закономерность, что сытое и благополучное население само начинает меньше плодится и стареет.
    У Азимова практически все  роботы выведены за  пределы Земли и трудятся там, где биологической жизни грозит смертельная опасность. Вот Марс, Титан, Луна и т.д. это их место работы, где они должны создавать условия для проживания биологических организмов, в том числе и человека. Отрабатывайте ИИ на Луне.  А у нас ВСЁ наоборот – мы экспериментируем над людьми здесь на Земле, вплоть до  полного нашего уничтожения, руководствуясь ложными медицинскими или религиозными выводами. Если мы будем дальше так действовать, мы просто уничтожим, друг друга и природе (Всевышнему) понадобиться еще миллионы лет, чтобы создать разумного таракана или разумную крысу, кому как повезёт.
 
 ****  В  научной статье “ТРИ ЗАКОНА РОБОТОТЕХНИКИ АЙЗЕКА АЗИМОВА: К ВОПРОСУ ГУМАННОСТИ ПРИМЕНЕНИЯ СМЕРТОНОСНЫХ АВТОНОМНЫХ СИСТЕМ ВООРУЖЕНИЯ НА ВОЙНЕ”
Шибаева Кристина Валерьевна
студент магистратуры первого курса Юридической школы Дальневосточного Федерального университета,
г. Владивосток e-mail: shibaeva2015@mail.ru
Холова Лейла Насимжановна
студент магистратуры первого курса Юридической школы Дальневосточного Федерального университета,
г. Владивосток e-mail:gmu-gruppa@mail.ru

говориться:

   “Время неумолимо движется вперёд и человек, подгоняемый научно -техническим прогрессом, старается не отставать от него, идя в одну ногу со временем. Эпоха, когда в сознании людей крепко сидела идея о том, что машины ни на что не способны и вольны мыслить лишь цифрами, осталась далеко в прошлом. На сегодняшний день мы наблюдаем, что все сферы человеческой жизни компьютеризированы, а наличие разнообразных систем с элементами искусственного интеллекта уже не является чем-то за гранью реального и не вызывает удивления общественности.
    Искусственный интеллект постепенно внедряется повсеместно, и в первую очередь в области, отвечающие за благосостояние и процветание государств: политическая, социальная и экономическая сферы, именно поэтому применение, так называемых, роботов в военных интересах - это, к сожалению или к счастью, далеко уже не новинка. В мире военного хайтека сейчас всё сложнее разглядеть такие вещи как лояльность, преданность, самопожертвование и множество других проявлений человечности, именно поэтому напрашивается вопрос, а место ли вообще людям на полях военных действий?
     Ни для кого не является секретом, что военными и разведывательными ведомствами по всему миру уже широко и довольно успешно внедряются боевые роботы - сапёры для нахождения и обезвреживания бомб и мин, беспилотные летательные аппараты, предназначенные как для разведки, так и для ведения боевых действий. Однако надо понимать, что подобные системы являются телеуправляемыми, то есть полностью контролируемыми человеком. Роботы в данном случае выступают лишь орудием, в то время как принятие решений остаётся за человеком, ими управляющим.
   Но что же будет, когда появится полностью автономная боевая система, которая будет вольна убивать по своей собственной инициативе?
   Что ждёт человечество, когда машины с искусственным интеллектом, способные к самообучению и обмену информацией между собой, будут не столько иметь право убивать, сколько обязаны это делать?
    Будет ли это гуманно - прибегать к помощи полностью роботизированной армии?
Вопросов множество, ответов же значительно меньше. Неудивительно, что в сознании большинства людей при разговоре о подобных армиях, ярко всплывает образ Терминатора, а сюжеты банальных голливудских боевиков о войнах людей с цивилизацией роботов внезапно обретают смысл. Это вполне логично и обосновано, а чувствовать страх при подобном развитии событий - нормально. Вопрос доверия человеческой жизни достаточно сложен для однозначного ответа, а вопрос доверия миллионов, миллиардов человеческих жизней в руки машины, которая самостоятельно будет продумывать каждый свой последующий шаг, в разы сложнее.
     В момент, когда в мире появится новый, хоть и искусственный, но сверхразумный вид, неважно, что придёт ему в голову: попытка сделать всех людей счастливыми или же идея уничтожения человечества, сопротивляться у людей просто на просто не будет возможности. В этом случае фатализм не только необходим, но и крайне полезен, ведь принимая всевозможные варианты развития событий, мы значительно снижаем уровень страха.
     Создание роботизированной армии - это тот момент, когда люди должны играть на опережение, а не принимать решения post factum. Уже сейчас человечеству необходимо сделать моральный выбор: что считать более правильным, законным и гуманным - убийство человека человеком или убийство человека машиной?
     Против применения роботов-убийц неоднократно выступал и основатель космической компании SpaceX, человек, который имеет доступ к последним из всевозможных разработок в сфере искусственного интеллекта, Илон Маск. «Искусственный интеллект - фундаментальная угроза существованию человечества». Он призывает сверхдержавы, ведущие разработку
     Смертоносные автономные системы вооружения (САС) - оружие, способное поражать цели на земле, в воздухе, на воде и под водой без участия человека. автономного вооружения, притормозить и удостовериться, что это безопасно. Людям необходимо озаботиться искусственным интеллектом - говорит Илон Маск на одной из конференций, посвящённых автономному летальному оружию.
     В 2017 году группа из 116 специалистов обратилась к Организации Объединённых наций (далее - ООН) с просьбой запретить разработку и использование автономного оружия. «Решение лишить человека жизни никогда не должно быть делегировано роботу» говорилось в письме. К числу авторов обращения, помимо Илона Маска, присоединился и основатель компании, занимающейся искусственным интеллектом, DeepMind Мустафа Сулейман. Разработчики обращения, говоря об использовании роботов-убийц, предупреждают о возможности начала третьей революции в области вооружения, сравнимой с такими точками исторического отсчёта, как изобретение пороха и ядерного оружия.
«Если ящик Пандоры будет открыт, закрыть его будет крайне сложно» - вот о чём говорят авторы обращения.
     Опасения в разрезе использования САС далеко не пустой звук. Выступающие против разработки и использования роботов-убийц ссылаются на Международную Конвенцию ООН об обычных вооружениях. Однако ссылки на Женевскую Конвенцию 1949 г. возможны лишь с большим количеством оговорок, поскольку, насколько нам известно, в международном гуманитарном праве, регулирующем методы нападения на людей во время военных действий, отсутствует ряд специальных положений, которые непосредственно касались бы автономных систем вооружения. Поднимая вопросы гуманности использования роботов-убийц, естественным образом необходимо затрагивать принципы ведения «гуманной войны».
     По этому поводу в Женевской Конвенции закреплено, что любая военная атака обязана соответствовать трём основным критериям:
1) военная необходимость;
2) дифференцирование военных и мирных жителей, которые не принимают участия в конфликте;
3) сохранение пропорции между потенциальными целями войны и ущербом, ею нанесённым.
    Особое место должно быть отведено и Оговорке Мартенса, запрещающей применение оружия, противоречащее «принципам гуманности, человечности и здравого смысла». Тут и возникает один из многочисленных вопросов, а способна ли система искусственного интеллекта в принципе выносить такие субъективные оценки?
     Если роботизированная система выходит из строя по непонятным на то причинам, а принимая во внимание тот факт, что робот-убийца - это в первую очередь машина и машинам свойственно ошибаться, таков закон развития техники и технологий, убивает несметное количество человек, то кого винить? Как и кого наказывать? Сделал ли робот это по собственной воле (mens rea) или же всему виной технический сбой в программе?”

Вывод статьи:
    “Искусственный интеллект же не должен восприниматься людьми только с позиции силы, способной уничтожать всё на своём пути, на него необходимо смотреть и с позиции верного соратника, способного помочь.
Только лишь принятие человечеством того факта, что оно может либо приобрести что-то совершенно новое, либо потерять всё, что было накоплено веками, подтолкнёт его, на наш взгляд, к великому прорыву”.
 

***** Человеку каждую минуту нужно делать выбор, и, по Азимову, этот выбор всегда априори тяготеет к добру. Вот вам мнение человека, чьими последними словами стали — «это была хорошая жизнь» (да, да, именно они помещены в название книги).      В книге с названием «Это была хорошая жизнь» (Isaac Asimov, «It’s Bихeen a Good Life»), изданной посмертно супругой фантаста Джанет Джепсон-Азимовой, кроме автобиографии писателя, мемуаров и эссе, приведены тексты некоторых его писем. В одном из приведённых посланий другу Азимов размышляет:
  “Как мне кажется, важно верить в то, что люди могут быть хорошими, даже если они, как правило, плохи, потому что в этом случае увеличивается ваша собственная удовлетворенность жизнью и ощущение счастья, а радость веры перевешивает случайные разочарования. Циничный взгляд на людей работает наоборот и делает вас неспособными наслаждаться хорошими вещами”.


Рецензии