Дата публикации: 29.04.2017

Искусственный интеллект (ИИ) становится частью нашего общества, но должен ли он подчиняться этическим и правовым нормам? Матиас Шейц, профессор когнитивных и компьютерных наук, директор Лаборатории взаимодействия человека и роботов в Университете Тафтса, утверждает, что настало время обучать машины нормам морали и права.

Будущее, заполненное роботами, которое нам пророчат, рано или поздно настанет. Кажется, что оно уже близко. От чат-ботов до самоуправляемых автомобилей — мы повсюду видим первые признаки машинного или искусственного интеллекта. На самом деле даже лучшие машины, которые сегодня существуют, не являются подлинно разумными. Скорее, они достаточно сложны, чтобы создавать видимость интеллекта и совершать некоторые операции так же как люди или даже лучше. Но они не способны думать. Иногда это называют слабым ИИ.

Сильный ИИ имеет разные определения, такие как «способность выполнить любую задачу так же хорошо, как человек», «машинное сознание». Пока это будущее. Однако производительность даже со слабым ИИ растёт в геометрической прогрессии, потому идея обучать роботов этике становится всё более востребованной.

Если роботы станут частью нашего общества, они должны вести себя, как мы и следовать нашим нормам, в противном случае возникнут проблемы, и не только этические.

Некоторые начнут просто раздражать, например, когда робот, идущий по тротуару, вдруг остановится и будет мешать прохожим. Однако Шейц указывает, что более серьёзные случаи, вызванные непониманием роботами человеческих потребностей, могут причинить эмоциональный вред людям. А в более сложных случаях «решения роботов могут привести к серьёзному физическому ущербу и, возможно, даже смерти человека».

Исходной точкой обучения роботов тому, что правильно, а что нет, является известный рассказ Айзека Азимова «Три закона робототехники», написанный ещё в 1942 году. Вот они:

Эти три правила могут показаться простыми, практичными и легко выполнимыми. Однако, объясняет Шейц, «законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют».

Действительно, стоит вспомнить, что они были изобретены как драматическое средство для создания напряжённого сюжета и в итоге привели к довольно странным результатам. «Согласно законам Азимова, когда роботу поручено уничтожить себя, он должен подчиниться, даже если в этом мало смысла. И в настоящее время эти законы не могут реально применяться». Беда в том, что эти простые, казалось бы, положения потребуют таких сложных умозаключений, которые характерны для людей, но всё ещё недоступны машинам.

Законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют, foto WEB

Вопрос, как бы мы могли практически инструктировать машины для принятия этических решений, Шейц комментирует так: «Некоторые используют методы машинного обучения, чтобы разобрать правильное поведение в определённом контексте». Однако удивительно, что машинная этика (или её отсутствие), хоть и звучит, как нечто теоретическое, уже имеет реальный потенциал, чтобы вызвать значительные проблемы в повседневной жизни.

«Например, производители автономных автомобилей понимают, что простая стратегия применения правил может быть недостаточной, но у них нет решения этой задачи, как и у специалистов в любой другой отрасли» — поясняет Шейц. — На самом деле, пока социальные роботы производятся и внедряются в общество без каких-либо этических норм, что довольно проблематично».

Мы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботов. Необходимо также много работать над этической составляющей механизма рассуждений самих роботов. Примером этической проблемы, с которой может столкнуться, например, самоуправляемый автомобиль, может быть такая ситуация: «Должен ли я двигаться навстречу транспортному средству, чтобы избежать столкновения с пешеходом, который вышел на дорогу?» Очевидно, это трудный вопрос, поскольку оба варианта могут нанести вред человеку и любой выбор противоречит первому закону Азимова. Так что же делать машине? Ответа у нас пока нет.

Опять же, возвращаемся к необходимости применения системы этических принципов, которые позволят роботам соотнести последствия выбора каждого из вариантов, когда ни один из них не является «хорошим». Но тогда возникает вопрос о том, кто же несёт ответственность за принятые роботом спорные решения.

Проблема обучения роботов поведению, соответствующему человеческим нормам, согласно Шейцу, заключается в том, что пока мы не обладаем достаточными знаниями, чтобы представлять и использовать эти нормы с вычислительной точки зрения. Потому, нашей задачей является не только обучить машину «думать» как человек (и быстрее его), а также самим понять, что же значит быть людьми. 

Раймер Ригби, Англия, Лондон

Перевод с английского языка на русский язык

Здесь может быть Ваша реклама!

Статьи

12.01.2018

Будущее энергетики Великобритании

Дешёвая электроэнергия модульных реакторов от Rolls-Royce

29.05.2017

Палеонтология Русского севера. Котлас

Когда древние ископаемые рассказывают историю планеты

30.04.2019

Что такое CRISPR?

Что такое инновационная система редактирования ДНК, и в чём её польза

Дата публикации: 29.04.2017

Искусственный интеллект (ИИ) становится частью нашего общества, но должен ли он подчиняться этическим и правовым нормам? Матиас Шейц, профессор когнитивных и компьютерных наук, директор Лаборатории взаимодействия человека и роботов в Университете Тафтса, утверждает, что настало время обучать машины нормам морали и права.

Будущее, заполненное роботами, которое нам пророчат, рано или поздно настанет. Кажется, что оно уже близко. От чат-ботов до самоуправляемых автомобилей — мы повсюду видим первые признаки машинного или искусственного интеллекта. На самом деле даже лучшие машины, которые сегодня существуют, не являются подлинно разумными. Скорее, они достаточно сложны, чтобы создавать видимость интеллекта и совершать некоторые операции так же как люди или даже лучше. Но они не способны думать. Иногда это называют слабым ИИ.

Сильный ИИ имеет разные определения, такие как «способность выполнить любую задачу так же хорошо, как человек», «машинное сознание». Пока это будущее. Однако производительность даже со слабым ИИ растёт в геометрической прогрессии, потому идея обучать роботов этике становится всё более востребованной.

Если роботы станут частью нашего общества, они должны вести себя, как мы и следовать нашим нормам, в противном случае возникнут проблемы, и не только этические.

Некоторые начнут просто раздражать, например, когда робот, идущий по тротуару, вдруг остановится и будет мешать прохожим. Однако Шейц указывает, что более серьёзные случаи, вызванные непониманием роботами человеческих потребностей, могут причинить эмоциональный вред людям. А в более сложных случаях «решения роботов могут привести к серьёзному физическому ущербу и, возможно, даже смерти человека».

Исходной точкой обучения роботов тому, что правильно, а что нет, является известный рассказ Айзека Азимова «Три закона робототехники», написанный ещё в 1942 году. Вот они:

Эти три правила могут показаться простыми, практичными и легко выполнимыми. Однако, объясняет Шейц, «законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют».

Действительно, стоит вспомнить, что они были изобретены как драматическое средство для создания напряжённого сюжета и в итоге привели к довольно странным результатам. «Согласно законам Азимова, когда роботу поручено уничтожить себя, он должен подчиниться, даже если в этом мало смысла. И в настоящее время эти законы не могут реально применяться». Беда в том, что эти простые, казалось бы, положения потребуют таких сложных умозаключений, которые характерны для людей, но всё ещё недоступны машинам.

Законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют, foto WEB

Вопрос, как бы мы могли практически инструктировать машины для принятия этических решений, Шейц комментирует так: «Некоторые используют методы машинного обучения, чтобы разобрать правильное поведение в определённом контексте». Однако удивительно, что машинная этика (или её отсутствие), хоть и звучит, как нечто теоретическое, уже имеет реальный потенциал, чтобы вызвать значительные проблемы в повседневной жизни.

«Например, производители автономных автомобилей понимают, что простая стратегия применения правил может быть недостаточной, но у них нет решения этой задачи, как и у специалистов в любой другой отрасли» — поясняет Шейц. — На самом деле, пока социальные роботы производятся и внедряются в общество без каких-либо этических норм, что довольно проблематично».

Мы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботов. Необходимо также много работать над этической составляющей механизма рассуждений самих роботов. Примером этической проблемы, с которой может столкнуться, например, самоуправляемый автомобиль, может быть такая ситуация: «Должен ли я двигаться навстречу транспортному средству, чтобы избежать столкновения с пешеходом, который вышел на дорогу?» Очевидно, это трудный вопрос, поскольку оба варианта могут нанести вред человеку и любой выбор противоречит первому закону Азимова. Так что же делать машине? Ответа у нас пока нет.

Опять же, возвращаемся к необходимости применения системы этических принципов, которые позволят роботам соотнести последствия выбора каждого из вариантов, когда ни один из них не является «хорошим». Но тогда возникает вопрос о том, кто же несёт ответственность за принятые роботом спорные решения.

Проблема обучения роботов поведению, соответствующему человеческим нормам, согласно Шейцу, заключается в том, что пока мы не обладаем достаточными знаниями, чтобы представлять и использовать эти нормы с вычислительной точки зрения. Потому, нашей задачей является не только обучить машину «думать» как человек (и быстрее его), а также самим понять, что же значит быть людьми. 

Раймер Ригби, Англия, Лондон

Перевод с английского языка на русский язык

Здесь может быть Ваша реклама!

Статьи

12.01.2018

Будущее энергетики Великобритании

Дешёвая электроэнергия модульных реакторов от Rolls-Royce

29.05.2017

Палеонтология Русского севера. Котлас

Когда древние ископаемые рассказывают историю планеты

30.04.2019

Что такое CRISPR?

Что такое инновационная система редактирования ДНК, и в чём её польза

Дата публикации: 29.04.2017

Искусственный интеллект (ИИ) становится частью нашего общества, но должен ли он подчиняться этическим и правовым нормам? Матиас Шейц, профессор когнитивных и компьютерных наук, директор Лаборатории взаимодействия человека и роботов в Университете Тафтса, утверждает, что настало время обучать машины нормам морали и права.

Будущее, заполненное роботами, которое нам пророчат, рано или поздно настанет. Кажется, что оно уже близко. От чат-ботов до самоуправляемых автомобилей — мы повсюду видим первые признаки машинного или искусственного интеллекта. На самом деле даже лучшие машины, которые сегодня существуют, не являются подлинно разумными. Скорее, они достаточно сложны, чтобы создавать видимость интеллекта и совершать некоторые операции так же как люди или даже лучше. Но они не способны думать. Иногда это называют слабым ИИ.

Сильный ИИ имеет разные определения, такие как «способность выполнить любую задачу так же хорошо, как человек», «машинное сознание». Пока это будущее. Однако производительность даже со слабым ИИ растёт в геометрической прогрессии, потому идея обучать роботов этике становится всё более востребованной.

Если роботы станут частью нашего общества, они должны вести себя, как мы и следовать нашим нормам, в противном случае возникнут проблемы, и не только этические.

Некоторые начнут просто раздражать, например, когда робот, идущий по тротуару, вдруг остановится и будет мешать прохожим. Однако Шейц указывает, что более серьёзные случаи, вызванные непониманием роботами человеческих потребностей, могут причинить эмоциональный вред людям. А в более сложных случаях «решения роботов могут привести к серьёзному физическому ущербу и, возможно, даже смерти человека».

Исходной точкой обучения роботов тому, что правильно, а что нет, является известный рассказ Айзека Азимова «Три закона робототехники», написанный ещё в 1942 году. Вот они:

Эти три правила могут показаться простыми, практичными и легко выполнимыми. Однако, объясняет Шейц, «законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют».

Действительно, стоит вспомнить, что они были изобретены как драматическое средство для создания напряжённого сюжета и в итоге привели к довольно странным результатам. «Согласно законам Азимова, когда роботу поручено уничтожить себя, он должен подчиниться, даже если в этом мало смысла. И в настоящее время эти законы не могут реально применяться». Беда в том, что эти простые, казалось бы, положения потребуют таких сложных умозаключений, которые характерны для людей, но всё ещё недоступны машинам.

Законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют, foto WEB

Вопрос, как бы мы могли практически инструктировать машины для принятия этических решений, Шейц комментирует так: «Некоторые используют методы машинного обучения, чтобы разобрать правильное поведение в определённом контексте». Однако удивительно, что машинная этика (или её отсутствие), хоть и звучит, как нечто теоретическое, уже имеет реальный потенциал, чтобы вызвать значительные проблемы в повседневной жизни.

«Например, производители автономных автомобилей понимают, что простая стратегия применения правил может быть недостаточной, но у них нет решения этой задачи, как и у специалистов в любой другой отрасли» — поясняет Шейц. — На самом деле, пока социальные роботы производятся и внедряются в общество без каких-либо этических норм, что довольно проблематично».

Мы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботов. Необходимо также много работать над этической составляющей механизма рассуждений самих роботов. Примером этической проблемы, с которой может столкнуться, например, самоуправляемый автомобиль, может быть такая ситуация: «Должен ли я двигаться навстречу транспортному средству, чтобы избежать столкновения с пешеходом, который вышел на дорогу?» Очевидно, это трудный вопрос, поскольку оба варианта могут нанести вред человеку и любой выбор противоречит первому закону Азимова. Так что же делать машине? Ответа у нас пока нет.

Опять же, возвращаемся к необходимости применения системы этических принципов, которые позволят роботам соотнести последствия выбора каждого из вариантов, когда ни один из них не является «хорошим». Но тогда возникает вопрос о том, кто же несёт ответственность за принятые роботом спорные решения.

Проблема обучения роботов поведению, соответствующему человеческим нормам, согласно Шейцу, заключается в том, что пока мы не обладаем достаточными знаниями, чтобы представлять и использовать эти нормы с вычислительной точки зрения. Потому, нашей задачей является не только обучить машину «думать» как человек (и быстрее его), а также самим понять, что же значит быть людьми. 

Раймер Ригби, Англия, Лондон

Перевод с английского языка на русский язык

Здесь может быть Ваша реклама!

Статьи

12.01.2018

Будущее энергетики Великобритании

Дешёвая электроэнергия модульных реакторов от Rolls-Royce

29.05.2017

Палеонтология Русского севера. Котлас

Когда древние ископаемые рассказывают историю планеты

30.04.2019

Что такое CRISPR?

Что такое инновационная система редактирования ДНК, и в чём её польза

loading...