MMGP logo
Присоединяйтесь к нашему инвестиционному форуму, на котором уже 649,782 пользователей. Чтобы получить доступ ко многим закрытым разделам и начать общение - зарегистрируйтесь прямо сейчас.
Обсуждение новостей, связанных с финансами и инвестициями.
При поддержке
Первый пост Опции темы
Старый 28.10.2016, 13:21
#61
Профессионал
 
Регистрация: 12.04.2016
Сообщений: 2,245
Благодарностей: 218
Цитата:
Сообщение от Aless33 Посмотреть сообщение
Ну на счет этого я не думаю, что дойдет до такого. Все таки роботы мыслить не умеют. Их запрограммировать можно на определенные действия, но никак не мыслить.
Искусственный интеллект же никто не отменял. Уже сейчас тестируются эти технологии и я уверен, что когда-нибудь это выйдет в массы. Другой вопрос, насколько много свободы люди будут готовы дать.
blackvovik вне форума
Старый 28.10.2016, 18:06
#62
 
Пол: Мужской
Инвестирую в: Свой бизнес
Регистрация: 22.12.2014
Сообщений: 10,071
Благодарностей: 537
Цитата:
Сообщение от blackvovik Посмотреть сообщение
Другой вопрос, насколько много свободы люди будут готовы дать.
Ну в таком плане свободу ИИ думаю дадут. Даже сейчас кстати есть программы, которые умеют делать паршивый рерайт, так что чисто теоретически здесь возможно и без искусственного интеллекта можно обойтись.
ktulhuF вне форума
Старый 28.10.2016, 23:56
#63
Профессионал
 
Регистрация: 12.04.2016
Сообщений: 2,245
Благодарностей: 218
Цитата:
Сообщение от ktulhuF Посмотреть сообщение
Ну в таком плане свободу ИИ думаю дадут. Даже сейчас кстати есть программы, которые умеют делать паршивый рерайт, так что чисто теоретически здесь возможно и без искусственного интеллекта можно обойтись.
Да нет, я говорю о ситуациях, когда машина сможет влиять на жизнь людей. Может быть не напрямую, но хоть как-то. А все эти рерайты и тд это все ерунда. Оно, скажем так, сильно не испортит ничего.
blackvovik вне форума
Старый 29.10.2016, 00:26
#64
Любитель
 
Пол: Мужской
Инвестирую в: HYIP
Регистрация: 06.05.2014
Сообщений: 2,551
Благодарностей: 109
Цитата:
Сообщение от ktulhuF Посмотреть сообщение
Ну в таком плане свободу ИИ думаю дадут. Даже сейчас кстати есть программы, которые умеют делать паршивый рерайт, так что чисто теоретически здесь возможно и без искусственного интеллекта можно обойтись.
Да я бы сказал, что там просто слова занимают синонимами и все на этом все и заканчивается. Так, что это есть лишь жалкое подобие того, что заказчик хочет. Нельзя даже сравнить все это с реальностью.
kissfm11 вне форума
Старый 29.10.2016, 00:33
#65
Любитель
 
Регистрация: 07.06.2016
Сообщений: 1,056
Благодарностей: 58
Что не говори, а за сферой интернет технологий будущее, и поэтому профессии в этой сфере становятся все более востребованными.
Адрон вне форума
Старый 29.10.2016, 11:57
#66
 
Пол: Мужской
Инвестирую в: Свой бизнес
Регистрация: 22.12.2014
Сообщений: 10,071
Благодарностей: 537
Цитата:
Сообщение от kissfm11 Посмотреть сообщение
Да я бы сказал, что там просто слова занимают синонимами и все на этом все и заканчивается.
В целом да, но прогресс в этом направлении идет активно, если например лет 7 назад, они выдавали по сути, абракадабру, сейчас некоторые уже выдают более-менее приличный текст...
ktulhuF вне форума
Старый 29.10.2016, 16:57
#67
Интересующийся
 
Имя: Виктор
Пол: Мужской
Адрес: Украина
Инвестирую в: В себя
Регистрация: 17.08.2011
Сообщений: 136
Благодарностей: 9
Цитата:
Сообщение от eryoma Посмотреть сообщение
Для того чтобы что-то усовершенствовать - нужно понимать что данный прдукт не совешенен, а программа этого сделать не сможет. Ей просто не с чем сравнивать. Потмоу как нет функции - фантазия!!!
Как в старину придумывали сказки? Только за счет фантазии. Что-то увидел, добавил свое т.е. сфантазировал и сказка готова.
А железяка фантазировать не может. Она только запоминает те действия которые уже были кем то или чем то выполнены.
А чтобы придумать что нибудь новое - программа на такое не способна.
Да программа может решить что человек ей угрожает и решит угрозу ликвидировать но! Это будет только повторение чужих действий. Потому как кто-то уже убирал угрозу путем ликвидации человека. Но сама придумать она этого не сможет, только повторить.
Вот вам: "Компания Google уделяет много внимания развитию искусственного интеллекта. Ранее ИИ от Google научился писать картины и создавать музыку, но на этом разработчики останавливаться не стали. Теперь стало известно, что нейросети поискового гиганта создали собственную технологию шифрования без участия людей. В отчёте говорится, что Мартин Абади и Дэвид Г. Андерсен из Google взяли три нейросети с кодовыми именами Алиса, Боб и Ева, и позволили им передавать друг другу заметки, используя метод шифрования, который они же и создали.
Как сообщает издание New Scientist, вышеупомянутые сотрудники Google дали каждой из нейросетей собственное задание: Алиса должна была послать секретное сообщение, которое мог прочитать только Боб, в то время как Ева должна была самостоятельно попытаться выяснить, как можно перехватывать и декодировать это сообщение. Эксперимент начался с простого текстового сообщения, которое Алиса преобразовала в нечто нечитаемое, что только Боб мог декодировать с помощью ключа шифрования. После 15 000 попыток Алиса разработала собственный метод шифрования, а Боб придумал, как расшифровать его. Сообщение было длиной всего 16 бит, причём каждый бит был равен 1 или 0. Поэтому тот факт, что Ева смогла угадать только половину битов в сообщении говорит о том, что она просто выбирала одно из двух или угадывала в случайном порядке.
Самое интересное, что из-за особенностей машинного обучения даже сами сотрудники Google не знают, какой же метод шифрования создала Алиса.https://www.engadget.com/2016/10/28/...of-encryption/ "
Вот вам и ответ, если на начальных стадиях развития, данные алгоритмы смогли написать свой новый метод шифрования, не основанный ни на чем существующем. Для компьютера и ИИ понятия фантазия - все по другому, поймите, мыслить И будет тоже иначе. Мы судим по человеку, его мозгам, сознанию и прочему, но как будет думать именно И, фантазировать и т.д., придумывать, анализировать мы не знаем.
simbiat0411 вне форума
Войдите, чтобы оставить комментарий.
Быстрый переход