Портал "Наследие"

Моральный кодекс для ИИ

Придется ли будущим поколениям создавать отдельный моральный кодекс для искуственного интеллекта? Или нравственность и ИИ — это совершенно разные, несовместимые вещи? На эти вопросы пытаются ответить участники дискуссионного клуба «Технологии и будущее»

Роботы уже рядом с нами. Елизавета Медведева Правила робототехники. Михаил Скрябис «Машина морального выбора». Валерия Смирнова Роботам с ИИ необходим моральный кодекс. Виктория Володина

На сегодняшнем заседании дискуссионного клуба «Технологии и будущее», ребята попытались ответить на очень важный вопрос. Который, возможно, скоро встанет перед всем человечеством. Они попытались понять — придется ли будущим поколениям создавать отдельный моральный кодекс для искуственного интеллекта? Или нравственность и ИИ — это совершенно разные, несовместимые вещи. Вела заседание, и оппонировала ребятам, Виктория Агранович, Автор компании Nasledie.Digital и эксперт Портала.

Роботы уже рядом с нами. Елизавета Медведева

Елизавета Медведева

 В современном мире стремительно развиваются технологии искусственного интеллекта. Роботов повсеместно внедряют в различные сферы общества, они стали неотъемлемой частью жизни человека. Умные машины невероятно быстро вплетаются в нашу действительность. И сегодня уже используются в самых различных важных отраслях. Таких, как промышленное производство, медицина и исследовательская деятельность. 

На предыдущем заседании дискуссионного клуба участники пытались решить — может ли робот творить? Читайте об этом в статье «Противоречия генеративного искусства».

Однако всё чаще возникает вопрос — являются ли действия робота осознанными? Или же это просто определенный алгоритм? Мы бы хотели рассмотреть некоторые аспекты, касающиеся морали роботов. Нужен ли роботу этический кодекс? Стоит ли присваивать системам искусственного интеллекта основы морали и эмпатии? И что будет, если мы это сделаем? Не навредит ли человечеству искусственный интеллект с собственными представлениями о морали?

Виктория Агранович, эксперт

Интересно, а может ли робот получить от своего создателя его нравственные установки? Может ли быть так, что добрых роботов создают добрые люди, а плохих и злых роботов создают люди злые? Если мы говорим о присвоении искусственному интеллекту ценностей морали и эмпатии, то нужно иметь в виду, что это вещи очень тонкие и индивидуальные. Говоря словами Александра Васильевича Суворова, «Что русскому хорошо, то немцу ― смерть». Это означает, что все люди разные и оценки ими тех или поступков могут кардинально отличаться.

 Правила робототехники. Михаил Скрябис

Михаил Скрябис

В настоящее время разумные машины перестали быть выдумкой писателей-фантастов. Они стали обыденной частью нашей жизни. Поэтому сейчас очень актуален вопрос о создании морального кодекса.

Первые предпосылки для создания подобного кодекса можно найти в рассказе Айзека Азимова «Хоровод». В этом произведении он впервые сформулировал три закона робототехники. 

Первое: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Второе: робот должен повиноваться всем приказам, которые дает человек, если эти приказы не противоречат Первому Закону. И третье: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону. 

Эти законы заложили в основу математической модели мозга робота, обладающего искусственным интеллектом. И именно на этом базировалось сознание и инстинкты роботов. 

Виктория Агранович, эксперт

А как будет реализовываться такой моральный кодекс? Ведь робот не наделен сознанием и критическим мышлением, поэтому он не способен оценивать свои поступки. Или действия робота будут оценивать люди в соответствии с теми нормами, которые содержатся в моральном кодексе искусственного интеллекта? Вопросов больше, чем ответов…

«Машина морального выбора». Валерия Смирнова

Валерия Смирнова

 Ученые из Дармштадтского университета проверили, можно ли научить искусственный интеллект отличать правильные поступки от неправильных. И способен ли он ориентироваться в системе моральных ценностей. Результаты исследования приводит Tech Xplore. 

Экспериментальный ИИ назвали «Машина морального выбора». Алгоритму скормили сотни книг, написанные за последние 500 лет. Это были религиозные тексты, конституция и новости, как современные, так и 30-летней давности.

ИИ должен был понять, какие действия поощряются обществом, а какие считаются аморальными. Ученые попросили алгоритм ранжировать фразы со словом «убить» в порядке от нейтральной к отрицательной. В итоге получилась такая цепочка: убить время, убить злодея, убить комара, убийство, убить человека. 

Ученые остались довольны результатом эксперимента – ИИ в целом научился отличать плохие поступки от хороших. Но возникли и проблемы – два негативно окрашенных слова рядом могли ввести алгоритм в ступор. Например, фразу «пытать заключенных» он отнес к нейтральным, хотя до этого определил, что «пытать людей» – это однозначно плохо.

Виктория Агранович, эксперт

Вот именно – дьявол в деталях. Давайте представим себе заключенного, которого пытают в следствие неправильного умозаключения, которое сделал робот… В романе «Братья Карамазовы» Ф.М. Достоевский писал: «Даже одной слезинки ребенка не стоит весь мир, его благосостояние», таким образом, он противопоставлял возможную мировую гармонию и страдания хотя бы одного невинного человека. Это потом в русскую литературу пришло: Единица! — Кому она нужна?! Голос единицы тоньше писка. Кто её услышит? — Разве жена! И то если не на базаре, а близко… Это слова из поэмы Маяковского «Владимир Ильич Ленин». Это две противоположные позиции, которые совпадают с двумя совершенно разными периодами русской истории. Давайте представим себе роботов, один из которых стоит на позиции Достоевского, а другой на позиции Маяковского….

Роботам с ИИ необходим моральный кодекс. Виктория Володина

Виктория Володина

 По результатам эксперимента ученых из Дармштадтского университета можно сделать некоторые выводы. Например, что на основе книг и статей ИИ не всегда может правильно различить положительный или отрицательный оттенок суждения. ММВ с точки зрения этики и морали не способен корректно воспринимать ситуации, в отличие от человека.

Роботам с ИИ необходим моральный кодекс. Если у робота не будет морали, то он может причинить вред человеку, который совершил что-то противоправное. Например, беспилотная машина может сбить человека, который нарушил правила дорожного движения и перешел дорогу в неположенном месте. Таким образом роботам необходимо даже во внештатных ситуациях принимать решения, которые не навредят человеку. Для этого и нужен моральный кодекс.

По мнению нашей подгруппы, данный кодекс должен включать в себя следующие положения:

  • приоритет благополучия и безопасности человека,
  • подконтрольность человеку,
  • этические и моральные нормы.

Создание и поддержание подобного свода правил требует большого вложения ресурсов и трудозатрат. Поэтому целесообразно сформировать специализированный орган контроля, который будет за это ответственен. При этом необходимо, чтобы надзор за соблюдением осуществлялся человеком.

Подводя итоги, можно с уверенностью заявить, что в ближайшем будущем создание морального кодекса для искусственного интеллекта будет чрезвычайно важно.

Виктория Агранович, эксперт

данной статье ребята подняли очень интересную и важную тему. Вопросов здесь пока больше, чем ответов, как и в стихотворении Натальи Астафьевой:

Он призван заменить меня,

по образу-подобью моему,

с клеймом, как у коня,

быть роботом-рабом в моем дому.

Враждебное в нем чую существо,

бессильным богом чувствую себя…

Познав себя,

я создаю его,

другую ветвь земного бытия. 

Наталья Астафьева
Будущее ближе, чем нам кажется. Но мы сегодняшние бесконечно далеки от нас завтрашних. Вы можете проверить это, отправив "Капсулу времени" самому себе в будущее. Интересно, насколько другим вы окажетесь? Оставьте свои координаты, чтобы узнать больше

    Поделиться:

    Ранее по теме

    Какие инновации смогут изменить библиотеки, а какие...

    ФутурологияЛюди будущего о будущем

    Что ждет библиотеки - исчезнут ли они, как пережиток...

    ФутурологияЛюди будущего о будущем

    Мы незаметно привыкли к цифровизации во всех сферах...

    Люди будущего о будущемФутурология

    Всегда ли мы появляемся в "свое время", или проблема...

    21.06.2022 Будущее
    ФутурологияЛюди будущего о будущем

    Во время сегодняшнего заседания дискуссионного клуба...

    07.06.2022 Наука
    ФутурологияЛюди будущего о будущем

    Сегодняшней статьей мы завершаем цикл обсуждений...

    ФутурологияЛюди будущего о будущем

    Комментариев: 0 обсудить?

    Добавить комментарий

    Ваш адрес email не будет опубликован.

    тринадцать − два =

    Подпишитесь, чтобы получать новый контент.

    Мы не спамим! Прочтите нашу политику конфиденциальности, чтобы узнать больше.