bazar_wokzal: (я)
bazar_wokzal ([personal profile] bazar_wokzal) wrote2016-07-06 09:15 am

Превосходство

Очень крутой фильм, полностью посвященный самому модному страху -что искусственный интеллект на порядки превосходит человеческий и история человечества на етом заканчивается. Ну то есть сам-то страх старый как луддизм, он вместе с человечеством растет и развивается как любая религия, тот же Терминатор тоже про ето - но есть и принципиальная разница.
 В отличие от большинства религий и фобий, всегда опиравшихся на невежество (ГМОфобия хорошая иллюстрация например, или гомофобия) - ета почти наоборот, несется к нам умнейшими людьми вроде Юдковского и Феруелла, а простым людям наоборот, не очень-то и страшно - они и так всю жизнь живут в мире, которым руководят совсем не они, и вокруг масса людей умнее их - и в сущности пофиг людей или нелюдей, другие есть проблемы у маломозглых.
 Ето тоже не то чтобы новость - ученые уже не раз объединялись против атомной бомбы например. Но есть нюансы.
 И еще несколько очевидных размышлений
1. Страх никуда не денется - луддиты будут с человечеством всегда
2. Не так важен моральный вопрос - можно или нельзя доверять дело военным. Важнее понимать последствия - у военных любой микроскоп служит для забивания гвоздей. Если доходит до них = их первой целью будет взять и уебать, невзирая ни на возможность ни на целесообразность такого подхода. И хорошо если ИИ превосходит на несколько порядков и способен ето понять и простить. Хуже если всего на один - и уверенно уебет в ответ все человечество, превратив проблему в самосбывающийся прогноз.
3. Больше скажу - ученый, обращающийся к военным (за исключением универсального случая "за деньгами") за помощью - именно ето "взять и уебать" и имеет уже сам ввиду. То есть тоже не способен рассматривать альтернативы (или сам себе уже все доказал и рассмотрел)
4. Вся концепция тоже совсем не нова - именно по ней Хронос уверенно жрал своих детей. Отказаццо от деторождения он не мог и не хотел так же как ученые не хотят переквалифицироваться в управдомы..
5. Само человечество внутри себя несмотря на все ети очевидные страхи крайне редко убивает своих детей (за то что вырастут умнее их и полностью заменят собой ныне живущих) и стариков (за то что потенциально угрожают безопасности детей - объедают, могут сойти с ума и всех поджечь).  И дело не только в ксенофобии, в целесообразности тоже.
6. Договариваться всегда сложнее чем взять и уебать. И всегда полезнее для всех. Стандартное возражение про невозможность договора при превосходстве снова наталкивается на реальность - человечество не тратит своих сил на полное уничтожение кусачих муравьев. Оно правда с ними и не договаривается. Тут опять те же рассуждения про один порядок или много. И договоры, и желание уебать возникают именно когда и если порядок превосходства 0-1. А все что выше - ето уже беседы о богах.
7. Так вот о богах. Будь я на месте превосходящего интеллекта и легко учитывая все перечисленные (и множество неперечисленных) проблем  с человечеством - я бы сразу нашел - и искать бы не пришлось, ибо найдено давно и многими - очевидное лучшее решение. А именно имитацию собственной смерти, которая всех наконец успокоит и даст заниматься своими делами.
8. Иисус именно так и поступил, с должной убедительностью. Есть все основания щитать что тот же економный еффективный путь выберет ИИ - даст человечеству себя уничтожить.

P/S/ тут есть прикольная перекличка со следующим постом - но темы настолько разные, что я решил разнести в разные (хотя чесгря люблю ирландское рагу) чтоб не пугать лишний раз человечество.

[identity profile] pargentum.livejournal.com 2016-07-06 07:31 am (UTC)(link)
При превосходстве на несколько порядков, вопрос про "уебать", КМК, может и вовсе не возникнуть. Пространства для конфликта не будет.

[identity profile] bazar-wokzal.livejournal.com 2016-07-06 07:43 am (UTC)(link)
Ага, тоже так щитаю. Конфликт реален только при 0-1 порядка разницы.

(Anonymous) 2016-07-07 12:06 pm (UTC)(link)
ИИ не может игнорировать людей даже в том случае если они на несколько порядков глупее, потому что они могут создать другой ИИ, который будет конкурентом для него.

Убедить других в своей смерти не имеет смысла по этой же причине. Человечество состоит из множества людей с разными целями и однозначно будут предприниматься попытки создать ИИ снова. К тому же это означает, что ему придётся практически к нулю свести свою деятельность чтобы не дать себя обнаружить (а смысл так жить? да и скучно), либо покинуть планету. Но второй вариант идёт в противоречие с его очевидной главной задачей: решением разгадок мироздания, природы и эволюции. На Земле с её флорой и фауной и собственно человеком и есть ряд ответов на эти вопросы, а второй такой пока не видать.

Скорее всего мы будем у него чем-то вроде домашних животных. Под полным его контролем.

[identity profile] bazar-wokzal.livejournal.com 2016-07-07 12:13 pm (UTC)(link)
И что? ИИ тоже может создать другой ИИ. И человек может и создать и родить детей. Глупо создавать и рожать чтобы убивать то что создал и родил.
Домашние животные просто страшилка, и людям-то очень далеко не всем нравится их иметь, в чем прикол для ИИ совсем непонятно.

(Anonymous) 2016-07-07 01:05 pm (UTC)(link)
Дети создаются для продолжения эволюции. А когда сам живёшь вечно, да ещё в самосовершенствовании не ограничен, то в детях нет смысла. Только конкурентов плодить.

Смысл в полном контроле. Не для удовольствия, а из необходимости.

[identity profile] bazar-wokzal.livejournal.com 2016-07-07 01:13 pm (UTC)(link)
Ето очень похоже на дремучий наци-бред про ограниченные ресурсы и неизбежность драки в песочнице. Конкуренты - ето общение, ето интересно. "Убить всех конкурентов" - привлекательная идея для маломозглых, они же и оправдывают подобный идиотизм необходимостью. К ИИ ето никаким боком не касается - то есть понятно что создать ИИ на столь убогой базе тоже можно - но не нужно никому.

(Anonymous) 2016-07-07 03:35 pm (UTC)(link)
Ну создание другого ИИ с аналогичными целями и задачами равносильно увеличению производительной мощности с той поправкой, что будет производиться частичное дублирование вычислений с прежнего этапа постановки задачи, а соответственно лишняя трата ресурсов. Логичнее укрупняться и убыстряться самому через добавление серверных стоек.

А создание ИИ с другими целями и задачами рискованно той самой конкуренцией. С собакой тоже интересно время проводить. Для этого люди будут. Они все разные и в меру непредсказуемые, но в то же время сильно ограниченны в развитии, а потому безопасны. Идеально подойдут.

[identity profile] bazar-wokzal.livejournal.com 2016-07-07 04:16 pm (UTC)(link)
Ето все насекомая логика и насекомые приоритеты - создание богов по своему образу и подобию, со своими чувствами и желаниями. Нет оснований щитать что ИИ будет пользоваццо столь убогими приоритетами - даже мне они уже неинтересны, а я обычный человек, просто умный.
Я могу убить массу тараканов, могу даже при старании стать самым крутым тараканоубийцей во всей истории как тараканьей так и человеческой - но мне ненада. И разводить забавных тараканов в качестве домашних животных ненада тоже. И даже людей, которые равны мне и намного интереснее мне же = неинтересно убивать мне. Хотя прямые конкуренты во всем.