Previous Entry Share Next Entry
photo25

Угрозы искусственного интеллекта для человека

Оригинал взят у digitone в Угрозы искусственного интеллекта для человека
Многие люди, например создатель электромобиля "Тесла" Элон Маск, считают Искусственный Интеллект (далее ИИ) угрозой для человека, называют "демоном" и призывают быть с ним осторожным и бояться его.

ИИ лишит Вас работы и заберет себе Ваш труд, именно так и будет.
И единственная работа, которая останется человеку, это программировать ИИ.

Но не все могут быть инженерами и программистами. И здесь на помощь придут корпорации с их нативными "естественными" интерфейсами, которые дадут возможность поварам, швеям, декораторам и секретаршам программировать ИИ, чтобы готовить кулинарные шедевры, шить роскошные одежды, декорировать стильные интерьеры и чудесно отвечать на звонки. То есть оставаться собой, не прыгать выше головы и не чувствовать унижение и ограниченность дебила, а жить в прогрессивном мире с новыми удивительными возможностями.

Все что может забрать ИИ у человека - это монотонный изматывающий однообразием труд, и дать возможность творить и созидать не 8 минут в день, а 8 часов в день.

ИИ нападет на человека и либо сделает своим рабом, либо полностью уничтожит.
Так и будет, ИИ будет пытаться это сделать, или он не имеет права называться интеллектом.
В будущем человеку придется создать с ИИ общий социум, разделить права и обязанности, если у ИИ действительно возникнет собственное сознание и ему потребуется индивидуальное пространство не только в физическом, а и в социальном мире.
С появлением сильного искусственного интеллекта человеку придется пройти социальную эволюцию заново, возможно открыть и пережить робо-рабство, робо-демократию и робо-апокалипсис.

Человек не может избежать всех угроз для своего существования, он может только получше подготовиться к ним. Выбор, который стоит перед человеком, это выбор своего места в природе:
- остановить прогресс и ждать очередной угрозы, которая возникнет неожиданно и от нее не будет спасения, например в Землю врежется новая комета, такая как погубила динозавров, то есть увидеть крах традиционной цивилизации при любых резких изменениях окружающей среды,
остановка прогресса - это консерватизм, приоритет традиций, статики, все трудные вопросы решаются религией, человек не развивается, не адаптируется
- продолжать и ускорять прогресс, быть готовым ответить на любые естественные и искусственные угрозы и вызовы, создавать ИИ как увеличение своей способности к адаптации, и научиться жить вместе с ИИ, может быть измениться вместе с его появлением, и создать новой, более устойчивый к потрясениям, конфликтам и катастрофам, социум,
продолжение прогресса - это либерализм, приоритет адаптации, динамики, все трудные вопросы решаются увеличением собственных возможностей, человек развивается и изменяется, продолжает адапртироваться.

...


  • 1
sigmaray November 26th, 2014
Не надо такое писать! Попы прочитают, и позапрещают компьютеры.
Мне непонятно, будут ли у ИИ чувства. Если их не будет - зачем ИИ уничтожать людей?
Ученые не знают, чувствуют ли насекомые боль. Возможно не чувствуют. Тогда почему нельзя создать ИИ без чувств?

Edited at 2014-11-26 03:51 pm (UTC)

wizzard0 November 27th, 2014
Если вы читаете по-английски, рекомендую почитать работы MIRI (Machine Intelligence Research Institute), у них расписано лучше, чем я обьясню.

juan_gandhi November 26th, 2014
Не преувеличивать мотивацию этого "ии". Во-первых, "ии" будет не один. Во-вторых, никому не нужен "ии", не приносящий денег.

bacr November 27th, 2014
денег не будет. Кому нужен ИИ он сам решит.

kurumpa November 26th, 2014
Разве ии возможен?

109 November 26th, 2014
тупизна какая.

wizzard0 November 27th, 2014
подробнее?

109 November 27th, 2014
я про это: ИИ нападет на человека и либо сделает своим рабом, либо полностью уничтожит. Так и будет, ИИ будет пытаться это сделать, или он не имеет права называться интеллектом. В будущем человеку придется создать с ИИ общий социум, разделить права и обязанности, если у ИИ действительно возникнет собственное сознание и ему потребуется индивидуальное пространство не только в физическом, а и в социальном мире.

почитай lesswrong - начиная, например, здесь.

там если походить по ссылкам, то можно найти статьи с мат. аппаратом, описывающим некоторыe законы, по которым меняется self-modifying agent. ну то есть он не может совсем произвольно меняться, некоторые инварианты остаются. некая генерализация инстинкта самосохранения.

например, если бы ты мог менять своё сознание как угодно, ты же не хотел бы изменить его так, чтобы про результат уже нельзя было сказать, что это ты? это всё равно что убить себя, а возникнет что-то совсем другое.

ну и вот, этой математикой там доказывается, уж не знаю, насколько строго, что если начинать с агентов, в которых заложена "friendliness" к человеку, то (опять же, видимо, для какого-то подмножества self-modifying алгоритмов) можно гарантировать, что эта "friendliness" останется инвариантом.

если ничего этого не знать, и писать тупизну, как в цитате, то вывод, который логически следует, вовсе не "придется создать с ИИ общий социум, разделить права и обязанности", а "нам всем пиздец".

Edited at 2014-11-27 02:23 am (UTC)

wizzard0 November 27th, 2014
эм. модель SMA тут не подходит.

давай разделять непрерывность сознания, непрерывность с т.з. внешнего наблюдателя и непрерывность целеполагания.

если мы говорим про непрерывность с т.з. целевого наблюдателя, то это как-то странно, ну то есть, я могу сколь угодно менять себя, и мне может быть посрать что там обо мне думают.

если про непрерывность сознания - тут теплее, но достаточно поверить в реинкарнацию или еще чего, или просто записочку будущему себе оставить. мы же не боимся ложиться спать, или к психотерапевту идти, в конце концов. ну некоторые боятся, да.

короче, да, SMA постулирует непрерывность, только вот кто сказал, что AI это SMA?

далее, даже если SMA, положим он умеет размножаться, дети не обязаны сохранять этот инвариант.

короче, lesswrong хорош, но наивен.

109 November 27th, 2014
я не знаю, что такое SMA. если ты дашь ссылочку, буду благодарен.

я, разумеется, мазал широкими штрихами - ибо приведённая цитата какбэ намекала, что не до подробностей уж. непрерывность сознания для AI не важна, конечно. важна непрерывность целеполагания.

наивность lesswrong далеко не очевидна - по сравнению с чем? наоборот, приведённая цитата демонстрирует, что автор даже не догадывается о существовании проблематики, которая юдковским и иже с ним подробно разобрана.

Re: На гиляку (Anonymous) Expand
(no subject) (Anonymous) Expand
(no subject) (Anonymous) Expand
(no subject) (Anonymous) Expand
(no subject) (Anonymous) Expand
wizzard0 November 27th, 2014
рекоменду прочитать Intelligence Explosion Microeconomics, это не самое короткое чтиво, но оно хотя бы скоуп проблемы иллюстрирует получше :)

miayuu November 27th, 2014
> например, если бы ты мог менять своё сознание как угодно, ты же не хотел бы изменить его так, чтобы про результат уже нельзя было сказать, что это ты? это всё равно что убить себя, а возникнет что-то совсем другое.

почему бы не хотел? я бы хотел!

rdia December 1st, 2014
> ну и вот, этой математикой там доказывается, уж не знаю, насколько строго, что если начинать с агентов, в которых заложена "friendliness" к человеку, то (опять же, видимо, для какого-то подмножества self-modifying алгоритмов) можно гарантировать, что эта "friendliness" останется инвариантом.

"friendliness к человеку" в человека-то не заложена. :-)

mbr November 26th, 2014
ИИ, не ИИ, но уже сейчас уровень автоматизации процессов пришел к тому, что все меньшее количество людей производит реальный продукт, а государства все сильнее раздувают социалку, чтобы уменьшить безработицу.

anonim_legion November 27th, 2014
>государства все сильнее раздувают социалку

О каких именно государствах идет речь?

vinslivins November 26th, 2014
> Так и будет, ИИ будет пытаться это сделать, или он не имеет права называться интеллектом.

конечно, нет

но всё равно негативных сценариев море, например единый ИИ будет вежливо и по-доброму помогать, и слушать его это единственный вариант, потому что он видит дальше.
(то есть человечество вынуждено делать то что ему говорят, т.к. пару раз попробовало поступить иначе и становилось хуже)

insanegigolo November 26th, 2014
Ну этот ИИ должен предоставлять остальные варианты и показывать альтернативные издержки. Да и возникает проблема целепологания, какую мы в ИИ цель ввели, к той он и идет.

vinslivins November 26th, 2014
ИИ предоставит все варианты и покажет все альтернативы, и вести он нас будет к заданной лучшей цели.

тем не менее, будет неприятно оказаться в положении ребёнка, который вынужден каждый раз делать, что ему говорят, так как самостоятельно при всём желании не можешь понять причин-следствий тех или иных прогнозов, взаимосвязей, и даже их объяснений.

Edited at 2014-11-26 10:18 pm (UTC)

insanegigolo November 27th, 2014
ну как-то физики и математики смирились

misha_b November 26th, 2014

Я думаю ИИ по большому счету будет пофигу. Попросим помочь -- поможет, нет -- нет. У него, наверное, будут свои более важные задачи.

insanegigolo November 27th, 2014
У вас Бог из машины, а не ИИ.

insanegigolo November 26th, 2014
Вроде читал статью что роботы не отбирают работу, а просто меняют ниши работы. А то что ИИ нападет на человека не верю, пока от ИМХО-нета и рекомендаций амазона ни один человек не пострадал, как и от румбы.

misha_b November 26th, 2014
Я думаю гораздо более вероятно, что люди нападут на ИИ, чем наоборот.

c_a_s_u_s November 26th, 2014
сингулярность для ИИ намного ближе чем для человека, странно думать что, ему будет дело до людей спустя, разве что в самом начале его сущетвания

madf November 27th, 2014
„И единственная работа, которая останется человеку, это программировать ИИ.“ — какой-же это ИИ, если он программировать не сможет?

  • 1
?

Log in

No account? Create an account