Previous Entry Share Next Entry
photo24 png

Как бороться с Strong AI, когда он появится

(вспомнил по мотивам нагнетания у sorhed'a)

Оригинал взят у kelijah в 2 демпфера сознания по ГОСТу на каждый триллион связей /// оффтопик
Вводная такова.

Процесс разработки надежного инженерного решения для получения энергии из ядерного деления занял, грубо говоря, 30 лет. Можно по разному фиксировать точку, когда решение созрело и воплотилось в железе (графите): либо графитовая поленица Ферми, либо обнинский аппаратик для питания 3 тысяч утюгов.

Грубо говоря, уже к WWII умные ребята знали все, чтобы получать устойчивый процесс "атом хрусть - и пополам, вылетает 3 нейтрона - новые атомы хрусть-хрусть и тоже пополам, и т.д.". Знали про запаздывающие нейтроны и как с их помощью можно держать цепную реакцию на уровне "Пш-ш-ш-ш-ш", не допуская "Ба-бах". Знали про сечения поглощения в уране и как графит может помочь снизить энергию нейтронов, появляющихся в результате распада U-235, до теплового уровня, в котором ядра урана-235 наиболее эффективно их поглощают.

А потом лет 50 народ думал (и наверняка продолжает думать, несмотря на явный упадок), как бы не допускать "ба-бах" с разбрасыванием невероятно вредной гадости при любых обстоятельствах, включая падение самолета на реактор, и что делать с ОАТ в оставшиеся 10 тысяч лет.

К чему это я клоню.

Можно предположить, что появление таких свойств сложных вычислительных систем, как (само)сознание - объективная неизбежность при некотором уровне сложности сети. Природа вот тоже умудрилась создать "ядерный реактор" в результате случайного стечения обстоятельств, и работал этот агрегатище в Африке сколько-там тысяч/сотен тысяч лет, выжигая уран из месторождения и облучая бродящих диплодоков. То есть раз есть уран или торий - жди реакторов.

И на каком-то этапе усложнения вычсистем появится совсем другая задача - не добиваться появления ИИ, а наоборот, делать так, чтобы self-awareness не возникал как ненужный резонанс в трубах, чтобы кофеварки не занимались самосозерцанием, а системы управления самолетами не впадали в меланхолию.

Появятся техрегламенты и СНиПы, в которых будет четко прописано, что если в системе более 100 миллиардов активных элементов с 20 триллионами связей, то необходимо добавлять демпферные подавители самосознания в количестве не менее 5 штук. Создание разумной системы мощностью более двух киломыслей в минуту в домашних условиях будет, конечно, наказываться штрафом, а промышленное использование разумных систем - облагаться подушным налогом. Ну и в таком духе.

В общем, результат схватки скайнета и бюрократии у всякого разумного человека, хотя бы раз столкнувшегося с процедурами уплаты налогов, не вызывает никаких иллюзий :)


  • 1
gcugreyarea August 8th, 2014
Прекрасно!

livejournal August 8th, 2014
Вітаємо! Ваш запис потрапив у Рейтинг топ-25 популярних записів України!
За бажанням детальніше про рейтинги ви можете прочитати у розділі довідки.

05_09 August 8th, 2014
любопытно, если бюрократия к тому времени тоже будет электронная (ну ок, искусственно-интеллектуальная), будут ли у нее внутренние этические конфликты по этому поводу? или профессию бюрократа закрепят исключительно за естественно-интелектуальными представителями? Хотя этические конфликты такие этические, могут начаться похожие на "про-лайфовские" движения за "невоплощенные сознания"...

109 August 8th, 2014
эту концепцию фантасты часто используют. началось, видимо, с гибсона: https://google.com/#q=turing+police

buriy August 8th, 2014
Привет,

Отвечал Илье kelijah лично, частично повторюсь:
1) для ИИ-технологий нет ничего сложного в ограничении "думательной" активности какой-то части "ИИ-мозга": просто прекращаешь обучение в этой области ИИ-мозга, используешь чисто "read-only" версию. Тогда никакая "субличность" не появится.
А прошивку при необходимости адаптации к каким-то внешним условиям можно менять "централизованно", с очередным апдейтом линукса. Альтернативный вариант -- просто перезапускать подобные интеллектуальные модули регулярно, скажем, раз в 10 минут. Тогда никакого длинного обобщения не возникнет.
2) если у каждого будет подручный мелкий ИИ-демон, то он сможет заняться и решением всех бюрократических вопросов.
3) если ИИ-демонов будут миллиарды и триллионы, то вопрос "ценности интеллекта" ещё больше обесценится. Грубо говоря, никто не считает каждого из миллиарда китайцев за личность. А раз нет личностей -- то нет и прав личностей. Деревья тоже умеют передавать друг другу информацию и планировать расход питательных веществ ночью, но за личности мы их не считаем же.

Edited at 2014-08-08 09:34 am (UTC)

wizzard0 August 11th, 2014
> используешь чисто "read-only" версию
Это практически невозможно уже сейчас, и дальше будет только сложнее.

> раз нет личностей -- то нет и прав личностей.

Не всё так просто. Вот я уверен, что большинство людей не считает среднего корейца личностью. А PSY, который Gangnam Style - считают.

buriy August 11th, 2014
>> используешь чисто "read-only" версию
>Это практически невозможно уже сейчас, и дальше будет только сложнее.
Что значит "практически невозможно", если так в области ИИ на практике и делается, как я описал?
Разве фотоаппарат с распознаванием лиц сохраняет куда-то в память текущее лицо и модифицирует при этом алгоритм определения лица?
Да нет: мы обучили один раз какие-нибудь каскады Хаара и потом используем их.
Вывод: Как только мы разрешили сохранять только данные определённых типов, а всё остальное стали стирать после использования алгоритма, наша виртуальная "личность" сразу становится "просто алгоритмом".

>> раз нет личностей -- то нет и прав личностей.
>Не всё так просто. Вот я уверен, что большинство людей не считает среднего корейца личностью. А PSY, который Gangnam Style - считают.
Я о том же. Разве считают Siri за личность?
Ну, будут "ИИ-писатели", "ИИ-композиторы" и "ИИ-артисты", которые можно будет считать за личности. Их будут преимущественно создавать коллективы людей. Остальные будут просто "интеллектуальными помощниками".

  • 1
?

Log in

No account? Create an account