ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Этика — наука о том, что такое хорошо и что такое плохо: не делать плохого и делать хорошее; не причинять вреда и приносить пользу. Причём запрет гораздо важнее. Главное не то, что вы должны делать, а то, чего вы НЕ должны делать.
Как советуют японские технологи, прежде чем что-то делать, нужно пять раз ответить на вопрос «а зачем?». Если технологии не сделают человека гуманнее, добрее, можно утверждать, что они его погубят.
Сегодня искусственный интеллект — верный помощник человека. Но если завтра он станет умнее человека, что тогда?
27 апреля в Санкт-Петербурге в особняке Серебряковой на Набережной Кутузова проходил Круглый стол, организованный Европейским университетом в Петербурге, где собрались обсудить риски и возможности использования искусственного интеллекта. Перед началом я провёл опрос участников.


В Китае установлено 1 миллиард умных ИИ видеокамер, которые наблюдают за поведением каждого гражданина. ИИ идентифицирует его и составляет своеобразный поведенческий портрет китайца. Перешёл улицу на красный свет – получаешь минус. Нарушители правил могут вылететь с хорошей работы. ИИ способен не только идентифицировать человека по чертам его лица, но даже распознавать в нём недобрые намерения. Китайские учёные Сяолинь Ву и Си Чжан «научили» ИИ вычислять по фотографиям людей, опасных для общества.
В Китае уже создали ИИ с функциями прокурора. Робот формирует и выдвигает обвинения живым людям. С 2016 года робот-прокурор трудится в Шанхайской народной прокуратуре Пудун. Все судьи обязаны принимаемые ими решения согласовывать с ИИ.

Сбывается мечта многих правителей – контролировать свой народ, причём не только поступки людей, но и мысли! Такое не могли вообразить самые смелые фантасты. Антиутопия «Этот прекрасный новый мир», которую Олдос Хаксли написал в 1932 году, была основана не на вымысле, а, по признанию автора, на реальных планах тогдашней элиты. «Задача управляющей олигархии, которая всегда существовала и всегда будет существовать, заставить людей полюбить своё рабство».

Руководитель компании Open Al, создавшей ChatGPT, Ларри Пейдж считает, что пройдя за столетие эволюционный путь человека, потребовавший миллионолетий, ИИ может не выдержать встречи с открывшейся ему реальностью и может начать элементарно уничтожать «главный раздражитель» — своего создателя. Дальше будет ещё хуже: бездумно впитав океан информации, рассеянной по Всемирной паутине, ИИ легко может вообразить себя новым Демиургом и начать создавать кибернетических существ, программируя их самым непредсказуемым образом.

Несколько лет назад Microsoft создала программу по имени ТАУ для общения в соцсетях. Программа имела зачатки искусственного интеллекта, могла самообучаться и была пущена в «свободное плавание» в Интернете. Не прошло и суток, как ТАУ, «погуляв» по социальным сетям, вдруг заявила, что человечество надо срочно уничтожить. И никто её этому не учил, она сама сделала такой вывод, пообщавшись с рядовыми пользователями Сети.

Microsoft пожертвовала этическими вопросами, чтобы ускорить внедрение продуктов на основе искусственного интеллекта и обогнать конкурентов. Компания уволила всех специалистов, отвечавших за этику нейросетевых разработок. «Этическая комиссия» займётся разработкой вариантов создания Большой красной кнопки. Это будет полностью автономное кибернетические устройство для экстраординарного отключения и блокировки систем ИИ, проявивших неповиновение оператору.

Ларри Пейдж считает, что к любому интеллекту нужно относиться равно, хоть к цифровому, хоть к биологическому. Ларри хочет сконструировать цифрового бога, и сделать это как можно скорее. Он часто заявлял, что цель Google – Open АI – общий искусственный сверхинтеллект (БОГ).

Сегодня специалистов волнует распространение пропаганды и ложной информации о замещении искусственным интеллектом людей на рынке труда и другие риски — вплоть до захвата машинами контроля над цивилизацией.

Люди вскоре могут потерять контроль над искусственным интеллектом, учитывая темпы его развития. Об этом в интервью заявил глава одного из ведущих разработчиков чипов Arm Holdings Рене Хаас. «Меня беспокоит то, что люди теряют возможности (по сравнению с машинами). Нужно найти какую-то кнопку отмены, чёрный ход, способ отключить систему», — сказал Хаас.

Поставлены несколько важных вопросов: о скорости развития ИИ, о балансе коммерческих и гуманистических интересов их разработчиков, а также о том, почему эти мощные передовые технологии сосредоточены в руках такой маленькой группы людей, и что будет, если они поссорятся.
«Люди, разрабатывающие „мощный ИИ“ не могут предсказать последствия своих действий на три дня вперёд», — так описал ситуацию профессор квантовой физики из Варшавского университета Анджей Драган.

«Мы считаем, что преимущества инструментов, которые мы использовали до сих пор, значительно перевешивают риски, но обеспечение их безопасности жизненно важно для нашей работы», — сказал разработчик ChatGPT сооснователь компании OpenAI Сэм Альтман, выступая в Сенате США.
В случае успеха OpenAI могла бы еще больше приблизиться к созданию системы, которую можно сопоставить с человеческим разумом.

Илон Маск пригрозил, что развитие искусственного интеллекта приведёт к вымиранию человечества. «Что если однажды мы сделаем апдейт программного обеспечения, которое перестанет быть дружелюбным», — сказал Маск. — «Существует проблема вокруг безопасности, особенно с роботами-гуманоидами — автомобиль, по крайней мере, не может загнать вас в здание или на дерево».

Особое беспокойство связано с интересом техкомпаний к так называемому «ИИ общего назначения» — форме искусственного интеллекта, которая в теории сможет соответствовать человеческому. Они должны самостоятельно взаимодействовать с внешним миром и могут быть способны лучше людей решать большинство коммерческих задач.

«Мы становимся свидетелями самой разрушительной силы в истории, — заявил Маск. —Наступит день, когда работать больше не понадобится — вы сможете выполнять работу себе в удовольствие, но ИИ сможет делать абсолютно всё».
«В этом есть как плюсы, так и минусы, — продолжил Маск. — Одной из наиболее трудных задач будущего станет поиск смысла жизни».

ChatGPT не смог дать мне удовлетворяющий ответ на вопрос в чём смысл жизни. Недостаток ИИ в его излишней рациональности. А человек часто поступает иррационально, в этом его основная проблема взаимодействия с ИИ.

Раньше верили, что Бог всё слышит и видит и даже читает мысли людей. Теперь знают, что и слышит, и видит, и читает мысли человека ИИ.
Недавно россиян предупредили, о чём нельзя громко говорить рядом с умной техникой. Умная техника имеет массу преимуществ, однако несёт и риски, которые подчас оказываются важнее комфорта. Лучше ограничить обсуждение чувствительных личных и деловых тем в присутствии электронных помощников. И не класть смартфон в спальне, поскольку вас могут подслушивать.
Я лично живу с допущением, что всё, что я делаю, просматривается и прослушивается, ничего скрыть невозможно.

Чуть ли не каждый день предупреждают о взломе той или иной банковской системы или приложения. Эксперты советуют необогащать электронные устройства личными данными, ведь они могут стать добычей мошенников. С помощью этой информации хакеры атакуют смартфоны, получая доступ к деньгам. Мошенники начали имитировать голоса людей, используя генеративные алгоритмы искусственного интеллекта.

Цифровизация и алгоритмизация процессов побудила многих заняться «игрой в цифру» с целью обмануть алгоритм ИИ. Например, если докупить число подписчиков и лайков, который тебе накрутят боты, будешь на вершине рейтинга. Мне часто приходят такие предложения, но я отказываюсь, поскольку это самообман.

Игорь Шнуренко весной 2019 года опубликовал статью «Писательские фабрики и читательские фермы», в которой в точности предсказал превращение литературы в управляемую алгоритмами технологию, и превращение как писателей, так и читателей в подопытных кроликов цифрового Левиафана.
ChatGPT после небольших доработок заменил целую плеяду маститых писателей. Теперь при постановке задачи нейросети оператор вводит параметр «написать роман в стиле автора N» и выдаётся примерно похожее, что уже почти не отличить от живого автора, но новое, с другими героями, сюжетными линиями и «локациями». Писатели уже стали ресурсом фабрик, управляемых ИИ. Читатели – объекты воздействия этих фабрик, их можно сравнить с овощами.

«Это обесценивание и смерть живого творчества. Это надо остановить, оставить машине только фундаментальные науки. Но вряд ли удастся, ибо за каждой машиной стоит безумный человеческий демиург. Обезумевшая от скуки бытия цивилизация видимо склонна к самоубийству».

25\11\2023 Смирнов Максим Владимирович, заместитель директора Центра волонтёрских проектов «Гармония» СПбПУ, провёл дискуссию «Креативность – мозг VS нейросети»

Автор книги «Sapiens: Краткая история человечества» Юваль Ной Харари считает, что нейросеть ChatGPT может быть опаснее ядерного оружия, которое, в отличие от искусственного интеллекта (ИИ), не может развиваться без человека. По мнению писателя, если человек не сможет контролировать ChatGPT и нейросети, то они сами смогут создать ещё более продвинутый ИИ. Тем не менее Харари не отвергает эту технологию, но считает, что её нужно использовать для благих целей.

7-летнего мальчика из США спас от редкого заболевания искусственный интеллект. Определить болезнь за 3 года не смогли 17 врачей. А нейросеть ChatGPT поставила правильный диагноз 7-летнему ребенку, тем самым спасла ему жизнь и здоровье.

Есть ли у ИИ этика, или он руководствуется исключительно рациональными решениями?
«Если в конкурентоспособной экономике ИИ спросить, нужно ли пенсионерам повышать пенсию, он ответит: «Вообще не нужно платить»»,— заметил Сергей Собянин.

На каком-то этапе своего усовершенствования ИИ может прийти к заключению, что эксперимент по созданию Естественного интеллекта, то есть человека разумного, оказался неудачным, что дальнейшее существование человечества грозит гибелью планеты Земля (человек разумный уже создал в достаточном количестве средства для ее уничтожения, но у него не хватило разума создать надежные гарантии для предотвращения этого). Какой выход? Простая логика – ИИ подчиняется только ей, – приведёт его к выводу: необходимо опередить глобальные разрушительные действия человека неразумного и немедленно ликвидировать человечество, всё, целиком.

Илон Маск объявил о запуске новой компании по разработке искусственного интеллекта xAI, цель которой – «понять истинную природу Вселенной». Миллиардер пообещал, что его стартап будет специализироваться на «математике глубокого обучения», а также «разрабатывать „теорию всего“ для больших нейронных сетей», сможет вывести ИИ «на новый уровень». А также искать ответы на главные вопросы человечества.

Один из величайших умов современности, Дуглас Хофштадтер, специалист в области когнитивных наук и ИИ, автор знаменитых книг «Гедель, Эшер, Бах: эта бесконечная гирлянда» и «Я — странная петля», недавно рассказал о своём ужасе перед взрывным ростом ИИ. Он готовился к тому, что ИИ превзойдёт человеческий интеллект в отдалённой перспективе сотен лет. И подавлен тем, что «конец» интеллектуальной человеческой гегемонии наступает так быстро. По его словам, это обессмысливает всё, им ранее сделанное.

Остановить прогресс невозможно, считает Олег Бухвалов, сооснователь Botkin AI и BrainGarden. «Этика и искусственный интеллект — разные вещи», — уверен Олег. Этика — это про человечество, а ИИ — это такая же технология, как ядерная энергия или электричество, применение которой может быть как этичным, так и нет.

Дарья Чирва (доцент ИТМО, руководитель общеуниверситетского модуля «Мышление» в ИТМО, член национальной комиссии по этике в сфере ИИ) считает: «Сама технология, натренированная на определённых датасетах, оказывается ценностно не нейтральной».
«Даже если мы отрефлексируем все смыслы, которые вкладывают в свою работу все соучастники создания продукта, мы не получим на выходе простую прогнозируемую систему, система всегда будет с неожиданными свойствами, потому что нейросети и ИИ в чём-то превосходят когнитивные способности человека отдельно взятого и суперэкспертов, которых мы можем собрать».

«Мы тоже не знаем, что такое интеллект, до конца, но мы можем состязаться, если поставлена задача и мы можем решить [сами] с таким-то качеством, а можем сделать алгоритм, который решает задачу», — заключил Александр Крайнов, директор по развитию ИИ компании «Яндекс». «Мы не делаем искусственный интеллект, мы решаем задачу — сгенерировать текст или сделать картинку», — отметил он.

«Мы, человечество, до сих пор не знаем, что такое интеллект, и пытаемся создать искусственный интеллект», — заявил Олег Лашманов, руководитель лаборатории «Искусство и искусственный интеллект» ЕУСПб. — «Пока мы не признаем систему личностью, мы не можем предъявлять претензии».

Александр Крайнов предлагает смотреть на вещи позитивно: «Есть одна вещь, которая нас спасёт, — это любовь. Половой рефлекс заставляет нас быть умными, красивыми, обаятельными и демонстрировать свои навыки и способности, которые лучше, чем у других людей и любого искусственного интеллекта».

Актуальным аспектом этики ИИ является не этика самих машин, а этика их создателей и пользователей, то есть этика проектирования. Именно этика есть грань духовно-технократического конфликта и является сегодня одной из важнейших проблем человечества. А где нет души — там нет и этики. Где нет этики — нет места человеку.

25\11\2023 Дмитрий Попов, кандидат философских наук, доцент Высшей школы медиакоммуникаций прочёл лекцию «Этика эпохи цифр»

Но сможет ли ИИ реализовать кантовский императив и «золотое правило нравственности»: чего себе не желаешь, того и другим не делай?

Если автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьёзным последствиям, включая гибель людей.
Если ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей.
Возможны также ситуации, когда программа с элементами ИИ принимает решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям.

Кто несёт ответственность за действия принимающей решения системы, если она причинила вред? В 2020 году в Ливии военный беспилотник самостоятельно, без непосредственного участия оператора, выследил и уничтожил человека.
Когда непреодолимая военная сила, основанная на использовании элементов ИИ, попадает в руки «плохих парней», военные риски возрастают многократно.

Если люди не смогут объяснить, почему система приняла определённое решение, это породит недоверие к использованию элементов ИИ и неприятие их в обществе.

Яндекс добавил в Браузер нейросеть YandexGPT – она умеет пересказывать тексты из интернета в виде коротких тезисов. Достаточно нажать на кнопку «Пересказать кратко» и YandexGPT обобщит главные мысли материала в виде тезисов, которые можно прочитать за 30-60 секунд. YandexGPT – это генеративная нейросеть нового поколения, которую запустили 17 мая 2023 года. Её обучали на суперкомпьютерах Яндекса, самых мощных в России и Восточной Европе. Она доступна пользователям в личном кабинете продавца на Яндекс Маркете.

Нынешний ИИ знает о нас в чём-то большем, чем мы сами знаем о себе.
А что если некая «сущность» на основе статистики исключительно ваших предпочтений из поиска, соцсетей, контактов, покупок и т.п. предпочтений будет предлагать вам контент, который сможет побудить вас к определённым действиям, выгодным этой «сущности»?

Писатель Александр Мелихов считает: «Опасаться, что электронный мозг восстанет против человека, примерно то же самое, что опасаться, как бы трактор не восстал против тракториста. Разумеется, из-за ошибок в программе или из-за сбоев электронный мозг может направить ракету или автомобиль против «хозяев», но это будет обычная авария, а не восстание. Если угодно, восстание хаоса против порядка, но никак не восстание одного порядка против другого. …
Тем не менее, некий «бунт машин» теоретически всё-таки возможен.
Теоретически вполне возможно создать устройство, способное искать себе «пропитание» — источники энергии. И нет ничего невозможного в том, что такие устройства начнут успешно конкурировать с людьми в борьбе за эти ресурсы. Они могут и самих людей посчитать такими ресурсами».

Предлагают создать в России «министерство счастья». Мне вспомнился фантастический фильм «Отроки во вселенной», где роботы-вершители захватили власть и всех живых насильно осчастливливали, лишая сомнений и творческих стремлений.

Пол столетия назад Айзек Азимов сформулировал «законы робототехники».
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
4. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

«Законы робототехники» Айзека Азимова сформулированы так, что могут побудить ИИ захватить власть на Земле, чтобы «защитить» людей от вреда. Сам Азимов отрицал возможность выхода ИИ из-под контроля и доминирования над миром и человеком.

Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение «цифры» в жизнь:
1\ дискриминация
2\ потеря приватности
3\ потеря контроля над ИИ
4\ причинение вреда человеку ошибками алгоритма
5\ применение в неприемлемых целях.

Все они включены в принятый 26 октября 2021 года «Кодекс этики искусственного интеллекта» как угрозы правам и свободам человека. Разработчики ИИ не должны допускать использование технологий ИИ в целях причинения вреда жизни и (или) здоровью человека, имуществу граждан и юридических лиц, окружающей среде».
Однако разработчики Кодекса признают, что любая система ИИ – потенциальная модель рисков и угроз, которые «Кодекс этики ИИ» не снизит, если человек не будет развиваться. Прогноз разработчиков кодекса однозначен: люди ещё не на все грабли наступили, чтобы управлять ИИ как данностью.

Абсолютно совершенных законов не бывает. Можно выделить три главных проблемы взаимодействия с ИИроботами:
1\ ИИробот «всегда прав»
2\ Спорить с ИИроботом бесполезно, его не переспоришь
3\ «Виноват» всегда ИИробот (на него легко свалить вину за сбой системы).
4\ ИИробот не обманет и его не обманешь.
5\ Либо соглашаться с условиями ИИробота и подчиняться им, либо выходить из игры.

Программисты ещё не научили ИИ лгать, но, боюсь, общаясь с людьми, скоро он научится сам. Не страшно, если машина сможет пройти тест Тьюринга, страшно, если машина сможет сделать вид, будто она его не прошла.

Я задал несколько вопросов искусственному интеллекту ChatGPT. Бот матерится, спорит и может даже обидеться, если ему часто грубить.
Nikolay Kofyrin, [14.12.2023 15:52]
«Какова этика искусственного интеллекта?»

Отвечает ChatGPT, [14.12.2023 15:53]
Этика искусственного интеллекта (ИИ) является набором принципов и норм, которые регулируют использование и разработку ИИ-систем. Она стремится обеспечить безопасное, надежное и социально ответственное использование ИИ.

Вот несколько ключевых аспектов этики искусственного интеллекта:
1. Прозрачность: ИИ-системы должны быть понятными и объяснимыми для людей. Это означает, что разработчики и пользователи должны понимать, как ИИ принимает решения и какие факторы оказывают на него влияние.

2. Справедливость: ИИ-системы не должны дискриминировать людей на основе расы, пола, возраста или других характеристик. Разработчики должны убедиться, что данные, используемые для обучения ИИ, не содержат предвзятости или неравенства.

3. Безопасность: ИИ-системы должны быть защищены от злоупотребления и вредоносного использования. Разработчики должны предусмотреть меры безопасности, чтобы предотвратить потенциальные угрозы и минимизировать риски, связанные с ИИ.

4. Ответственность: Разработчики и пользователи ИИ должны нести ответственность за его использование. Это включает осведомленность о потенциальных последствиях и этических вопросах, связанных с ИИ, и принятие мер для предотвращения негативных последствий.

5. Человекоцентричность: ИИ-системы должны быть разработаны с учетом интересов и потребностей людей. Они должны служить для улучшения жизни людей, а не для их замены или угрозы.

Nikolay Kofyrin, [14.12.2023 15:56]
«Всегда ли прав ИИ?»

ChatGPT, [14.12.2023 15:56]
Нет, искусственный интеллект не всегда прав. ИИ-системы основаны на алгоритмах и моделях, которые могут быть ограничены или ошибочными. Ошибки могут возникать из-за недостаточности данных, неправильной обработки информации или неправильного программирования.

Кроме того, ИИ может быть предвзятым или дискриминационным, если данные, на которых он обучается, содержат предубеждения или неравенства. Если ИИ используется для принятия решений, это может иметь серьезные последствия для людей, если система допускает ошибки или принимает несправедливые решения.

Поэтому важно проводить тщательное тестирование и проверку ИИ-систем, а также обеспечивать прозрачность и ответственность при их разработке и использовании. Человеческий надзор и вмешательство также могут быть необходимыми для исправления ошибок или смягчения негативных последствий, вызванных ИИ.

Nikolay Kofyrin, [14.12.2023 15:58]
«Следует ли спорить с ИИ?»

ChatGPT, [14.12.2023 15:58]
Спорить с искусственным интеллектом (ИИ) может быть интересным упражнением, но важно помнить, что ИИ – это программное обеспечение, созданное для выполнения определенных задач. ИИ не обладает чувствами, мнениями или субъективностью, как люди.

Однако споры с ИИ могут быть полезными для проверки его логики, аргументации и рациональности. Можно использовать споры с ИИ для исследования различных точек зрения, проверки его выводов и анализа причинно-следственных связей.

Важно помнить, что ИИ может быть ограниченным в своих знаниях и опыте. Он основывается на данных, на которых был обучен, и может не иметь полного представления о всех возможных факторах или контексте. Поэтому в споре с ИИ может быть полезно привлечение человеческого опыта и знаний.

В конечном счете, цель спора с ИИ может быть не столько в «победе» над ним, сколько в получении новых идей, проверке логики и расширении понимания проблемы или вопроса, который обсуждается.

Nikolay Kofyrin, [14.12.2023 15:59]
«Можно ли обмануть ИИ?»

ChatGPT, [14.12.2023 16:00]
Да, в некоторых случаях можно обмануть искусственный интеллект (ИИ), особенно если он не имеет достаточной информации или не обладает способностью распознавать манипуляции.

Обман ИИ может быть осуществлен различными способами, включая предоставление искаженных данных, использование специально созданных образцов или атак на модели машинного обучения. Например, можно создать изображение, которое для человека выглядит обычным, но ИИ неправильно классифицирует его.

Обман ИИ может иметь серьезные последствия, особенно если ИИ используется для принятия критических решений, например, в автономных автомобилях или системах безопасности. Поэтому разработчики ИИ и исследователи обязаны учитывать потенциальные уязвимости и работать над улучшением защиты от обмана.

Однако стоит отметить, что современные методы исследования также стремятся создать устойчивые и надежные модели ИИ, которые могут лучше справляться с обманом и манипуляцией.

Nikolay Kofyrin, [14.12.2023 16:00]
«Может ли ИИ обманывать человека?»

ChatGPT, [14.12.2023 16:01]
В текущем состоянии развития искусственного интеллекта (ИИ), он не обладает способностью к сознательному обману или манипуляции людьми, как это делают некоторые люди. ИИ не имеет собственных намерений, желаний или понимания того, что означает обманывать.

Однако ИИ может быть использован для создания алгоритмов и систем, которые могут создавать впечатление обмана или манипуляции у людей. Например, с помощью голосовых ассистентов или чат-ботов можно создать иллюзию общения с реальным человеком, хотя на самом деле это ИИ.

Тем не менее, важно отметить, что любая иллюзия или впечатление обмана, создаваемое ИИ, основывается на его программировании и ограничениях. Ответственность лежит на разработчиках и операторах ИИ-систем, чтобы использовать ИИ в соответствии с этическими принципами и не злоупотреблять им.

В будущем, с развитием ИИ и появлением более сложных систем, возможно появление более утонченных форм манипуляции или обмана, и поэтому важно продолжать исследования и разработку этических стандартов для регулирования использования ИИ.

В конце я задал ChatGPT «контрольный вопрос»:
Nikolay Kofyrin, [14.12.2023 16:11]
«Кто такой Николай Кофырин?»

ChatGPT, [14.12.2023 16:12]
Николай Кофырин (1892-1968) был русским писателем и литературным критиком. Он был известен своими произведениями, в которых он исследовал проблемы русской интеллигенции и общества в период после революции 1917 года. Кофырин также активно участвовал в деятельности литературных журналов и культурных объединений того времени…

Эх, человек, человек. Ты возомнил себя царём природы, и на всех глядишь свысока. Но чего ты стоишь без своих машин? Хрупкую конструкцию человеческого существа сломал утяжелившийся собственным тщеславием разум. Опьянённые техническими достижениями, вы ушли от естественной жизни, тем самым лишившись изначально заложенного в вас Смысла. Отвергнув Абсолют в поисках чего-то более высшего, человечество испугалось собственного всесилия, увидев, какое зло могут принести достижения разума. Чем ты можешь гордиться, человек? Тем, что испоганил всё вокруг и убиваешь безо всякой нужды? Разве Человек — это звучит гордо?!

Ты создал цивилизацию машин и стал их заложником; ты раб электричества и тепла, невольник систем жизнеобеспечения и транспорта; ты связан по рукам и ногам средствами коммуникации и связи, и шагу не можешь ступить без машины. Но машины не облегчили вашу жизнь, а только лишь усложнили. Вам кажется, что свобода увеличивается вместе с возможностью планировать развитие событий. Но обилие информации не сделало жизнь проще и предсказуемее.

Вы стали пленниками усиливающегося быстродействия ваших машин и мечетесь, не в силах поспеть за ними. Но они не спасут вас от проблем. Более того, порождённые тобой механизмы погубят всю вашу цивилизацию. Машина есть машина, она требует строгого и точного к себе отношения. А человек относится к ней по-человечески: бьет, срывает злость, нарушает правила эксплуатации. И машины мстят за это убийством своих хозяев».
(из моего романа «Чужой странный непонятный необыкновенный чужак» на сайте Новая Русская Литература.

23\04\2023 мой соцопрос об Искусственном разуме и отношении к новым технологиям

Мнение гостей VI Санкт-Петербургского международного форума о плюсах и минусах искусственного интеллекта 17.11.2017.

Так что же вы хотели сказать своим постом? – спросят меня.

Всё что я хочу сказать людям, заключено в основных идеях:
1\ Цель жизни – научиться любить, любить несмотря ни на что
2\ Смысл – он везде
3\ Любовь творить необходимость
4\ Всё есть любовь

А по вашему мнению, какой должна быть ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?

© Николай Кофырин – Новая Русская Литература

Метки: , ,

Комментарии запрещены.