MMGP logo
Присоединяйтесь к нашему инвестиционному форуму, на котором уже 649,768 пользователей. Чтобы получить доступ ко многим закрытым разделам и начать общение - зарегистрируйтесь прямо сейчас.
Обсуждение новостей, связанных с финансами и инвестициями.
При поддержке
Первый пост Опции темы
Старый 06.02.2017, 10:50
#1
Мастер
 
Регистрация: 22.12.2015
Сообщений: 2,945
Благодарностей: 864
Хокинг и Маск: Искусственный интеллект может погубить человечество



Более тысячи экспертов IT-рынка, специалистов в области робототехники, учёных и теоретиков подписали открытое письмо о необходимости введения запрета на наступательное оружие с искусственным интеллектом. Авторы письма говорят, что автономное оружие самостоятельно осуществляет выбор и захват цели, без какого-либо участия со стороны человека. А это может таить огромную опасность для всего населения Земли. Боевые системы с искусственным интеллектом можно рассматривать как третью революцию в военной отрасли — после появления чёрного пороха и ядерных установок.

«В отличие от ядерного оружия, для автономных боевых комплексов не требуются чрезмерно дорогие компоненты или материалы, которые практически невозможно достать. А поэтому такие системы могут стать вездесущими. Это только вопрос времени, когда подобные установки появятся на чёрном рынке, в руках террористов и диктаторов, желающих жёстко контролировать население или проводить этнические чистки», — говорится в открытом письме. Авторы письма признают, что искусственный интеллект и робототехника имеют огромный потенциал по улучшению жизни всего человечества. В то же время использование ИИ в военной сфере должно контролироваться тщательнейшим образом, а автономное наступательное оружие и вовсе следует запретить.

Свои подписи под письмом уже поставили выдающийся британский физик-теоретик и космолог Стивен Хокинг, основатель компаний Tesla и SpaceX Элон Маск, соучредитель компании Apple Computer Стив Возняк, политический публицист, философ и теоретик Аврам Ноам Хомский и многие другие известные личности.

Источник
Влад555 вне форума
Старый 06.02.2017, 11:48
#2
Мастер
 
Регистрация: 28.12.2015
Сообщений: 1,592
Благодарностей: 502
Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

об этом говорят уже не первый год, и я полностью согласен с мнением подписавших данный документ
BigBoi вне форума
Старый 06.02.2017, 16:02
#3
Мастер
 
Регистрация: 22.12.2015
Сообщений: 2,945
Благодарностей: 864
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

Вот тут еще подоспела информация: Великое пробуждение искусственного интеллекта
Влад555 вне форума
Старый 10.02.2017, 18:25
#4
Мастер
 
Регистрация: 22.12.2015
Сообщений: 2,945
Благодарностей: 864
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском:
Проблемы исследований

1. Цель исследований. Целью исследований в области искусственного интеллекта должно быть создание не неориентированного, а полезного интеллекта.

2. Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:

Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?
Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?
Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?
Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?
3. Связь «наука-политика». Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.

4. Культура исследований. Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.

5. Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.

Этика и ценности

6. Безопасность. Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.

7. Прозрачность ошибок. Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.

8. Судебная прозрачность. Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способен проверить компетентное человеческое учреждение.

9. Ответственность. Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий действий, с ответственностью и возможностью формировать эти последствия.

10. Согласование ценностей. Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.

11. Человеческие ценности. Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12. Личная приватность. Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.

13. Свобода и приватность. Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.

14. Общая выгода. Технологии искусственного интеллекта должна приносить пользу и расширять возможности максимально возможного количества людей.

15. Общее процветание. Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.

16. Человеческий контроль. Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.

17. Отсутствие подрывной деятельности. Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.

18. Гонка ИИ-вооружений. Гонки вооружений в сфере летального автономного оружия необходимо избежать.

Более долгосрочные проблемы

19. Осторожное отношение к возможностям. Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.

20. Важность. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.

21. Риски. Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.

22. Рекурсивное самоулучшение. Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.

23. Общее благо. Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.
Влад555 вне форума
Войдите, чтобы оставить комментарий.
Быстрый переход