Re: Хокинг и Маск: Искусственный интеллект может погубить человечество
23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском:
Проблемы исследований
1. Цель исследований. Целью исследований в области искусственного интеллекта должно быть создание не неориентированного, а полезного интеллекта.
2. Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:
Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?
Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?
Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?
Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?
3. Связь «наука-политика». Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.
4. Культура исследований. Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.
5. Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.
Этика и ценности
6. Безопасность. Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.
7. Прозрачность ошибок. Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.
8. Судебная прозрачность. Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способен проверить компетентное человеческое учреждение.
9. Ответственность. Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий действий, с ответственностью и возможностью формировать эти последствия.
10. Согласование ценностей. Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.
11. Человеческие ценности. Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.
12. Личная приватность. Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.
13. Свобода и приватность. Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.
14. Общая выгода. Технологии искусственного интеллекта должна приносить пользу и расширять возможности максимально возможного количества людей.
15. Общее процветание. Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.
16. Человеческий контроль. Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.
17. Отсутствие подрывной деятельности. Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.
18. Гонка ИИ-вооружений. Гонки вооружений в сфере летального автономного оружия необходимо избежать.
Более долгосрочные проблемы
19. Осторожное отношение к возможностям. Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.
20. Важность. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.
21. Риски. Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.
22. Рекурсивное самоулучшение. Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.
23. Общее благо. Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.