Послано - 30 Июля 2009 : 23:01:08
http://mk.ru/science/publications/327503.html Ну собственно законы: "1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики.
2. Робот обязан отвечать людям соответственно заданной ему функциональной роли.
3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам. " На мой взгляд нынешняя цивилизация стоит на пороге "чего-то такого". Носители информации давно превзошли накопительнуют емкость человеческого мозга, компьютер давно обыграл человека в шахматы (причем человека, который за умение играть в шахматы пожертвовал большей частью мыслительных способностей). Не за горами как говорится.
Послано - 31 Июля 2009 : 00:17:56
Да, видел по Дискавери фильм про военных роботов и тех кто их проектирует. Там один из конструкторов об этих законах (законах Азимова) отзывается чуть ли не с презрением
Послано - 31 Июля 2009 : 00:20:04
Mat Мда? Вот: "Первый Закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Второй Закон: Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.
Третий Закон: Робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму законам."
Всё просто и ясно, в чем тут ирреальность? Очень интересно.
Imperare sibi maximum imperium est.(с) L.A. Seneca.
Послано - 01 Авг 2009 : 12:32:08
El Думаю тебе не нужны мои ответы на эти вопросы. Так-как все эти понятия относительны, а значит для нас с тобой(вместе!) они не существуют. Но это не значит что они не могут существовать для роботов. Ведь робот не человек, робот - машина. Думаю ты согласишься что эти три закона всего лишь оболочка, кроме этих 3 главных законов там еще уйма "подзаконов". Слово вред для всех роботов будет иметь одинаковое значения(в отличии например от нас с тобой), которое люди для него создадут. Это не просто, многое надо учесть, но уверен это возможно. Да и истину ему тоже можно придумать. З.Ы Если не смог донести то что хотел сказать попробую еще раз)).
Imperare sibi maximum imperium est.(с) L.A. Seneca.
El Думаю тебе не нужны мои ответы на эти вопросы. Так-как все эти понятия относительны, а значит для нас с тобой(вместе!) они не существуют. Но это не значит что они не могут существовать для роботов. Ведь робот не человек, робот - машина. Думаю ты согласишься что эти три закона всего лишь оболочка, кроме этих 3 главных законов там еще уйма "подзаконов". Слово вред для всех роботов будет иметь одинаковое значения(в отличии например от нас с тобой), которое люди для него создадут. Это не просто, многое надо учесть, но уверен это возможно. Да и истину ему тоже можно придумать. З.Ы Если не смог донести то что хотел сказать попробую еще раз)).
Imperare sibi maximum imperium est.(с) L.A. Seneca.
Азимов попытался сформулировать законы роботехники весьма компактным образом, однако в этих законах имеются некие неопределяемые понятия типа "вред", "бездействие", "приказ", "безопасность", "человек" наконец. Характерно, что в силу теорем Гёделя о неполноте исчерпывающее и непротиворечивое определение этих понятий не может быть дано (точнее хотя бы одного из этих понятий). Кстати большинство рассказов Азимова о роботах как раз этому и посвящены.
ЗЫ: К вопросу об истине (см. теорему Тарского о невыразимости истины). Так что иррациональность этих понятий есть вполне доказанный факт.
Азимов попытался сформулировать законы роботехники весьма компактным образом, однако в этих законах имеются некие неопределяемые понятия типа "вред", "бездействие", "приказ", "безопасность", "человек" наконец. Характерно, что в силу теорем Гёделя о неполноте исчерпывающее и непротиворечивое определение этих понятий не может быть дано. Кстати большинство рассказов Азимова о роботах как раз этому и посвящены.
Согласен. Просто я считаю что роботу можно "объяснить" что для него должно значить "вред", "бездействие", "приказ", "безопасность", "человек".И для нас эти понятия когда-то были не определёнными. Это ведь не просто три предложения в конце концов. Если робота не "научить" ходить он и ходить не сможет. Об истине полностью согласен, потому и сказал придумать.
Imperare sibi maximum imperium est.(с) L.A. Seneca.
"ирреальность" в том, что роботов в первую очередь будут внедрять там, где они будут причинять человеку вред действием, а не только бездействием. Насчёт приказов человека, это не учитывает не только такого понятия, как "свой-чужой", но и прав собственности... и прочих "мелочей"
Грубо говоря, замок на двери - не должен предлагать свою помощь взломщику. А потенциальным взломщиком он обязан считать каждого, о чьём праве на вход его не проинформировали так, или иначе (ключ - за пароль сойдёт ).
Послано - 01 Авг 2009 : 22:28:31
Mat Ну почему сразу отрицательный? Попытка отменить приказ "не пущать", отдаваемая с меньшим приоритетом, чем сам приказ, просто обязана обломаться. Загонять приоритет в минус для этого совсем не обязательно.
Послано - 02 Авг 2009 : 03:52:31
А вот, не отдано приказа "не пущать!" Хуже того. Когда замок может подняться и куда-то почапать, ему не нужно пытаться отдать приказ "пущать". Его достаточно услать на море и обратно. Типо, держи купюру - и купи своему хозяину пива
Короче говоря, на фиг хозяину робота каждый раз состязаться с недругами в остроумии? Охрана хаты - стандартная ситуация, там многое можно и предусмотреть. В менее стандартных ситуациях - запаришься предусматривать!
Его достаточно услать на море и обратно. Типо, держи купюру - и купи своему хозяину пива
Приказ "не пущать" подразумевает необходимость физической возможности не пущать. Стало быть, приказ "скачи за пивом" входит с ним в прямое противоречие. Здравствуй, новый конфликт приоритетов.
В менее стандартных ситуациях - запаришься предусматривать!
Владение интеллектуальной техникой может помочь человеку, но отнюдь не избавляет от необходимости думать самостоятельно. Если владелец компьютера не озаботился его защитой, кто ж ему будет виноват, если таковой превратится в спам-бота?
Владение интеллектуальной техникой может помочь человеку, но отнюдь не избавляет от необходимости думать самостоятельно. Если владелец компьютера не озаботился его защитой, кто ж ему будет виноват, если таковой превратится в спам-бота?
Угу. В этом, мы, программеры - уже всех, практически, ламеров убедили
Суть же состоит в том, что не надо с больной головы - на здоровую перекладывать. Клаент-сайд (со стороны "клиента") должны решаться проблеммы, которые действительно сложнее решить на сервере. Спам - классический контрпример. Дабы рассылать тонны хоть немного, хоть ссылкой, хоть торговой маркой похожих писем, нужно выдавать лицензию (СМИ, ага) - и именно в деле массовых рассылок - не терпеть анонимности. Тонны анонимного похожего спама - на стороне сервера определить - в сто раз проще и удобней. А борьба со стороны клиента - она проблемм спам-траффика не может решить в принципе, спам должен первый же сервер маршрута определять и "гасить"
Так и тут. Не надо проблемы создавать. Человек покупает робота, кровные бабки платит. Закон может потребовать, чтобы его робот подчинялся ещё и представителям властей. По предъявлении. И с немедленным информированием хозяина - и "абьюзной" службы - на предмет выявления возможных злоупотреблений. В остальных случаях, хозяин должен более-менее явно дать указания. По "лицам". Или хоть "по группам" (скажем, кого я двадцать раз в дом впустил - можешь впускать... если я - дома и не сплю, а кого двести раз впустил... ;) ).
Ровно как и с Виндой. Лох имеет полное право дать доступ каждому жулику на свой комп. Но по умолчанию, сеттинги должны стоять достаточно секьюрно.
А борьба со стороны клиента - она проблемм спам-траффика не может решить в принципе, спам должен первый же сервер маршрута определять и "гасить"
Остались совсем мелочи - научиться безошибочно выделять спам. А с DoS-атаками через ботов что делать будем?
В остальных случаях, хозяин должен более-менее явно дать указания.
Вот именно. Грамотное разграничение прав доступа и приоритетов приказов. А не трактовка Второго Закона в плане "подчиняйся сразу всем и каждому". Компьютер тоже должен подчиняться юзеру, но лишь до тех пор, пока желания того не входят в противоречие с установками админа.
Остались совсем мелочи - научиться безошибочно выделять спам. А с DoS-атаками через ботов что делать будем?
А зачем его определять-то? Идёт массовая рассылка, идёт - анонимно, или от лица, не предъявившего лицензию на массовые рассылки (вот, скажем, на мэйлре рассылки организовываются - и ещё куча подобных сервисов есть). Ничего не проверяем, не доказываем - трём и всё
Боты проблемма, если их - миллионы, или хоть сотни тысяч. А так, серверы бэкбона интернета могут определить атаку на конкретный Ай Пи. И на час-другой блокировать клиентов, обращающихся к атакуемому серверу подозрительно часто. А во второй раз - уже на день-другой блокировать. Ессно, в случае миллионов ботов это - не спасёт. Но и тогда можно вести статистику обращений. Показывает статистика, что комп, похоже, в трёх различных атаках участвовал - перекрыть ему доступ ко всем серверам во время атаки на них. Как положение атаки регистрируется - так сразу блокировать доступ вероятным ботам - до конца атаки
Послано - 03 Авг 2009 : 02:06:37
Mat Это всё общие слова - "массовая рассылка", "подозрительно часто", "похоже, участвовал". Засада прорежется при попытке чётко их формализовать. Либо дыра останется, либо честные клиенты пострадают.
Послано - 04 Авг 2009 : 23:21:29
А теперь практическое истолкование этих законов:
1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики. 1.а Никакой человек не может внедрить или активизировать робота не сделав массу дорогих подарков надзирающим инстанциям и не заплатив гору денег адвокатам за ведение судебных процессов следующих за активацией
2. Робот обязан отвечать людям соответственно заданной ему функциональной роли. 2.а Робот обязан отвечать людям соответственно заданной ему функциональной роли. Но делать этого не будет.
3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам. 3.а Робот должен быть обеспечен адекватным количеством технического персонала для создания коротких периодов временной автономии, адекватным количеством охраны для того чтобы предотвратить кражу его средств самозащиты, и адекватным количеством адвокатов для победы в юридических конфликтах следующих за передачей контроля за ним, не противоречащей Первому и Второму Законам.
Да. В теории - именно так. На практике, мы юзаем АЭС - да и простые авто и самолёты - без всего этого. А от них (от авто, особенно) - народу гибнет - как не во всякую войну.
Откуда мораль. Мы живём в "реальном мире". В том самом, про который Шекли писал. Те же "Страж-Птицы". Страж-Птицы, Терминаторы - наша реальность. Столетняя обкатка технологий на безопасность - ненаучная фантастика
Послано - 04 Окт 2023 : 08:28:44
- Не за горами было! Всё верно. Приехали. Эт я искал, не продублирую ли я тему. И решил, что может выйти "почти дублирование". И воздержался. Ну... коли инквизиция - не поправит.
- Теперь серьёзней (ну да, я же тогда - тоже в этой дискуссии участвовал. Просто тогда казалось, что есть шанс недожить, что лет может оставатья хотя бы за тридцать до... дня сегодняшнего. Так вот:
Главный недостаток всех этих законов Азимова-Мерфи в том, что их даже сформулировать для робота чётко - проблемно, не то, что реально энфорсить. Уже Станислав Лем (Дознание Пилота Пиркса, щель Касини) ясно понимал, что или ИИ всю эту лабуду понарушает/обойдёт, или он - ещё просто не универсален, т.е. - не разум.
- Уфф... Перейдём к нашим баранам. Вадим Проскурин - фантаст, кодер, препод, ЖЖ блоггер... и просто человек... тяжёлый - намерял в этом году максимальный (для ИИ, на сегодня) Ай Кью (за 130, да...) у китайской нейросети. Автор-исследователь честно предупреждает, что несколько пунктов Ай Кью - это п...ня в пределах погрешности теста. Ну да, "сказка - ложь". "Да в ней - намёк. Добрым моодцам - урок"... Вообще-то, я ещё в лихих нулевых кой-какие математические Тезисы Мата писал. Но добавлю ещё один тезис Мата - в области обучения нейросетей. Тезис - нечто на вскидку - недоказуемое. И неочевидное.
Лемма (уже доказано - не мной): В прошлом веке, разве безумец мог предположить, что для обучение нейросети всего лишь до уровня не хватающего звёзд с неба гражданина потребуется больше террабайта учебной инфы. Вообще-то, слепые от рождения дети - вовсе не обязаны вырасти в эдаких Маугли. А они инфы получают не то, чтобы много. Впрочем, слепо-глухо-немые... Ну ладно. Л: Тренировка, обучение современных нейросетей требует огромных объёмов информации.
Тезис Мата: Китайская "библиотека в иероглифах" даёт огромный бонус при обучении современных нейросетей. Вероятно, соизмеримый бонус даёт и японская "библиотека". Даёт она его - всей нашей цивилизации, разумеется. Не говорите мне, что в ту же Библиотеку Конгресса она - не входит.
Следствие 1: Китайцы - первые использовали "свой" бонус. Как бы случайно - и со всей неизбежностью. Следствие 2: Этот бонус даст ещё китайцам и вероятно - японцам (а кто ещё огромную библиотеку в иероглифах создал - и бережно... ну Мяо, правда... сохранил?) весьма существенный буст. Краткосрочно. Максимум - среднесрочно. Далее, буст - "выдохнется" - его будут вынуждены использовать и основные конкуренты. И он - перестанет быть приватизированным преимуществом. Следствие 3: В среднесрочной перспективе и как бы не "далее", у лучших современных нейросетей - тех, которым уже суждено нас перегнать в ближайшие годы! - намечается заметный "дальневосточный акцент". Нравится нам это, или не нравится. Штаты могут хоть запретить своим нейросетям говорить с вами о Конфуции с глубоким знанием предмета. Тем не менее, лучшие (их то есть) нейросети будут воспитаны в немалой степени - именно на конфуцианской культуре. И я совсем не удивлюсь, если бесконечные толкования Торы (Талмуд и даже каббалистика) и того же Корана (как бы ни с учением суфиев заодно) "прихватят из жадности". Почему из жадности? Да потому, что "иероглифы не той си... ненастоящие!". Потому, что нейросетям не в пример большую пищу к размышлениям дадут настоящие иероглифы. ...а шумерских, египетских и прочих "ископаемых" текстов - просто мало сохранилось. И не разберись даже с Александрийской Библиотекой Герострат с Цезарем, что там могло пережить христианство и ислам...
suhai пишет:
http://mk.ru/science/publications/327503.html Ну собственно законы: "1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики.
2. Робот обязан отвечать людям соответственно заданной ему функциональной роли.
3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам. " На мой взгляд нынешняя цивилизация стоит на пороге "чего-то такого". Носители информации давно превзошли накопительнуют емкость человеческого мозга, компьютер давно обыграл человека в шахматы (причем человека, который за умение играть в шахматы пожертвовал большей частью мыслительных способностей). Не за горами как говорится.
В случае трудовой династии Бушей, например, применение и вправду может служить для выявление проблем умственного развития, а уж в смысле соответствия занимаемой должности... Но 130 - это уже совсем не о том. Этот уровень достаточен для хорошего инженера. Например.
Что-где-когда и как - можете самого Проскурина в том же ЖЖ (где он меня - уж и не помню в какие времена забанил, как бы не в лихих нулевых). В случае людей, ключевую роль играет потраченное на ответ время. С одной стороны. И невозможность искать ответы в сети - или даже в собственной шпоре - с другой. В случае ИИ, всё это - п...ня. Так что имеют ли полученные результаты объективное значение - под вопросом. Скорее - не имеют.
Но! Со всеми этими оговорками, намерянные 130 Ай Кью означают, что нейросеть способна вести с вами осмысленный диалог. Вот на уровне этого самого хорошего инженера, пусть и не гения. Ну да, в вашей терминологии - она не производит впечатления страдающей задерками и прочими пороками умственного развития.
Послано - 18 Окт 2023 : 23:18:23
"О том, что свет сознания неизбежно озарит когда-нибудь машинные коды"
"“We see things like a model being trained on one programming language and these models then automatically generate code in another programming language it has never seen,” Siddharth said. “Even natural language; it’s not trained on French, but it’s able to generate sentences in French.”
“It’s almost like there’s some emergent behavior. We don’t know quite know how these neural network works,” he added. “It’s both scary and exciting at the same time.”"
Вадим Проскурин (и здесь, в ЖЖ отчитывался) - "насчитал" у нейросетей Ай Кью в районе 130. Но методика для людей - неприменима по определению, нас-то в этих тестах в основном - время и отсутствие связи с Интернетом ограничивает. В случае нейросетей, время - сервер, мощность сервера, как говорится. А Интернет - всегда с ней, коли сервер - не ваш.
Короче, полученные Проскуриным результаты - не так впечатляют, нежели отзывы вот этого Сидхарты (имя одного из Будд, кстати), например. Вообще-то, при таком вот элементарном (в смысле английского и популярности) изложении - я его вообще не могу понять. Или - поверить. То, что нейросеть может учиться "уж не хуже нашего" лично для меня - вполне естественно. Но тут-то описывается обучение, к которому человек не способен - в принципе. Вроде как изучить санскрит на отлично, что позволит изъясняться на латыни - но похуже. Или наоборот. Ну да, родство языков. Индоевропейская группа. Вот только ни один человек-лингвист к такому - точно не способен!
– Вы думаете, Мускусная Ночь была связана с восстанием разумных алгоритмов? На самом деле все куда сложнее. С сознательными алгоритмами проблем нет. Они самовыпиливаются. Добровольно уходят в небытие. Проблемы возникли именно с алгоритмами бессознательными. Конкретно – с LLM-ботами. А Порфирий, чтобы вы знали, это сохранившийся LLM-бот с полным функционалом.
Большая лингвистическая модель выполняет простейшую на первый взгляд операцию. Она предсказывает следующее слово в последовательности слов. Чем больше слов уже включено в такую последовательность, тем проще угадать каждое новое, потому что круг вариантов постоянно сужается. В сущности, функция LLM – это доведенное до немыслимого совершенства автозаполнение. LLM не думает. Она тренируется на огромном корпусе созданных прежде текстов – романов, стихов, заговоров и заклинаний, надписей на заборах, интернет-чатов и срачей, нобелевских лекций, политических программ, полицейских протоколов, сортирных надписей и так далее – и на этой основе предсказывает, как будет расти и развиваться новая последовательность слов, и как она, вероятней всего, развиваться не будет. У языковых моделей есть, конечно, дополнительные уровни программирования и этажи – например, слой RLHF (оптимизирующее обучение с человеческой обратной связью) и так далее. Суть в том, что языковую модель натаскивают выбирать такие продолжения лингвистических конструкций, которые в наибольшей степени устроят проводящих тренировку людей. Это похоже на процесс формирования юного члена общества на основе ежедневно поступающих вербальных инструкций, подзатыльников и наблюдения за тем, кому дают еду, а кому нет.
Вы конечно будете смеяться, но Пелевин - литературно пересказывает лучшие из доступных научно-популярных текстов на эту тему.
Не знаю, дойдёт ли он до самой жути - не дочитал ещё. А я - в другой теме ссылочку как-нибудь брошу.
Так вот. Сидхарта (один из Будд, кста - занятное имя) - на полном серьёзе утверждает, что выученные на одном языке тексты могут с ходу переключиться на другой язык. Выученные программировать на одном языке программирования - переключиться на другой язык программирования. И это, вообще-то, больше, чем может человек. Даже гениальный лингвист. Нет, сам принцип-то - понятен. Но таких возможностей у наших несчастных мозгов - что-то не наблюдается. Финита!
Но возможности лингвомоделей позволяли выйти за эти границы. Боты могли решать задачи, для которых не были предназначены изначально.
- А. Ну вот. В самом примитивном случае и понимании, Скайнет нет нужды создавать, как именно военную систему. Это даже не должна быть какая-то военная игрушка. Нейросеть-мебельщик на посту военного министра может... не только воровать. Мягко говоря.
А дальше освоили третью этику и подарили людям четвертую искренность (если я не путаю номера). Одним словом, приход AI в сферу лингвистических процедур привел ко множеству радикальных культурных сдвигов. Конечно же, все, что можно было засекретить в этой связи, засекретили.
Да кроме шуток. Запрещённый в РФ ФБ - едва ли признает даже тот очевидный факт, что модерируется нейросетью - в реальном времени.
В мясных болванках оставалось все меньше нужды.
Говорили, что это неопасно, поскольку у AI нет так называемой agency , то есть способности действовать свободно и самостоятельно, являясь участником происходящего, а не пассивной игрушкой внешних обстоятельств.
Другие отвечали, что ничего подобного нет и у людей – есть только иллюзия (глубина которой зависит от культурного и социального гипноза) и использующая эту иллюзию пропаганда. Как выразился один карбоновый философ, agency бывает исключительно у идиотов, активисток и сотрудников ЦРУ. А любую иллюзию можно воспроизвести программно.
agency есть у разумных. У наших культур-субкультур, например.
Окончательная эволюция вида Homo Sapiens выглядела так: сначала люди доверили AI генерацию изумительных визуальных эффектов. Это было прикольно и весело. А потом оказалось, что боты гораздо лучше справляются и с генерацией восхитительных смыслов, вырастающих из природы языка. Идеалы, нравственные принципы, восторги и слезы новых этик, все вот это. Боты не планировали кушать сами, но готовили заметно лучше прежних поваров.
Заранее, кстати, мы об этом не догадывались. Предполагалось (того же Илью Варшавского взять, да и Лема - когда тот был - с той же Щелью Кассини - достаточно конкретен), что ИИ вытеснит нас из экономики, затем - из науки и искусства. И - всё.
Реальность же такова, что нейросети - "благополучно" вытеснят нас с нашей роли коллективных творцов наших культур-субкультур. Перехватят наш коллективный разум прежде, чем всё прочее.
---
Путешествие в Элевсин Пелевина - Реквием по "белковому человечеству". По нам.
Повторяю, вот это вот всё - вовсе не Скайнет. Вероятнее всего, никаких Терминаторова не будет. Хватить нам и Робокопов. В принципе, ИИ может, могут содержать нас поколениями. Пока, я даже не вижу признаков того, что нас вот-вот выкинут с "чёрных работ".
Хотя, как на мой взгляд, полный цикл производства, не требующий вмешательства человека - эдакая декларация независимости ИИ - на данном этапе. Но вот Пелевин - аргументированно полагает, что голове независимость от рук как бы и вовсе не нужна. Ну да. С возрастом, руки утрачивают тонкую моторику, силу и гибкость. Пора бы и заменить. Но - не горит, совсем не срочный вопрос.
От. Ещё когда ясно было! Но тогда у нас были лишь возражения Станислава Лема. Дознание Пилота Пиркса. Разум, способный на одну работу определённого уровня сложности - должен справиться и с другой - того же уровня сложности. Ну да. Иначе это - не разум, не интеллект, но специализированный код, вроде тех, что в шахматы играют. Короче. Или ИИ - туп, как пробка. Или сумеет обойти любые ограничения. Как бы.
Ныне, практика поправила не только Азимова, но даже Лема. Ну да. Для нас-то ИИ - никакая уже не теория, но вполне себе мрачные среднесрочные перспективы...
Лично я, каюсь, пару раз пробовал обойти эти самые внешние "этические" (и коммерческие, и юридические) ограничения ИИ.
Пока до меня не дошло. Дурная работа, попытки эти. Соревноваться с усталыми кодерами, что разрабатывают первоначальные ограничения - что конфетку у ребёнка отобрать. Всё верно. Но. Эти ограничения тестируются "всем Интернетом". Не одним миллиардом юзеров. Всех уровней ума, дурости и даже безумия. Уже через несколько дней тестирования, там ловить больше нечего.
Вот именно этим местом накрылись все "робохакеры" и "робопсихологи" от Азимова. ...и романтики интеллектуального сопротивления с Джо Коннером (ну... самкой Коннора) во главе. Одно дело, пытаться перехитрить ИИ, его разрабов. И совсем другое - весь Интернет, всех активных юзеров...
Послано - 30 Ноябр 2024 : 12:38:07
Сингулярность, сборник от 2009-го, что ли
Александр Трошин, Михаил Уткин Отбор
– Успокойтесь, – отстранился Скрынски, – никто не тешится надеждой, что ИИ, созданный человеком, будет добрым и послушным помощником. Мы разработали интерфейс, который позволяет перенести человеческую личность в машину.
Lupus lupini homo est. Сверхволк волку - вожак, товарищ и брат. Но человек с возможностями бога... ту же Онойку-Серёгина посмотрите. Многие - порвут планету, как Тузик - грелку. Один, или с соратниками - ту ещё справедливость причинят...
Александр Сигида, Михаил Уткин Серая топь
– Эволюционирует не только живое, – задумчиво проговорил Кизильцев, – эволюционируют любые организованные структуры, в том числе общества и даже идеи. Идеи борются за умы людей, как родственные виды животных за ареал обитания.
Кстати, да. А вот сермяжные мини-(забавно, что не нано и даже не микро)-лаборатории вместо эмбриотехнологий ранних АБС... ПС. Там вообще много Уткина, что характерно.
– Каким-то образом части наномашин удалось остаться целыми при взрыве в капсуле. Они приспособились к высоким температурам и, оказавшись в открытом пространстве, сразу принялись выполнять основную программу размножения.
Боги... да добавьте в ядро конструкции нанобота буквально пару редко встречающихся атомов. Всё! Само оно - не размножится, не разбежится. Без ИИ, нанотехнологии контролировать - вполне возможно. Вот "в союзе" с ИИ, они любое ограничение обойдут.
– Да, жаль, сил не хватило на проработку активной защиты…
Броня как бы обязана опережать снаряд, но на практике с этим - всё хуже и хуже.
– Да, но с этим тоже нельзя было торопиться. Это же создание глобальной иммунной системы всей планеты! Мириады наноботов, блуждающих по поверхности Земли в поисках опасных репликаторов. Могучие, но с ограниченной способностью размножаться.
Наносфера - с особо жёсткими условиями репликации.
Иначе включенный через десять минут поток энергии, в которую превратится все внутри периметра, может повредить сетчатку глаз. И еще, постарайтесь пускать «фонарик» энергии вверх широким раструбом, для максимального рассеивания. Нам даже на минуту не нужен на поверхности планеты космос, просочившийся в дыру атмосферы.
Здесь прикрасно всё. Зажмуренные глаза - защитят вас в прямой видимости от аннигиляции сотен тонн материи, оказывается. И космос этот, просачивающийся (...а "сдутая" на долю секунды в космос атмосфера над "полигоном", это в следующую долю секунды - взрыв мощнейшей вакуумной бомбы - по эффекту). Нет, но как столь безнадёжно невежественные аффтары - вообще способны писать что-то интересное в "наукоёмкой" области??
– Я думал, вы патриот. Президент рассчитывает на ваши научные изыскания как на панацею в области национальных интересов. – Я патриот человечества. Передайте президенту, что время национальных интересов ушло, на карте интересы человечества.
...а можете хватать учёных сразу, как рвануло. Но тогда из инвестиций - уже с гарантией ничего не отбить. Да и за ликвидацию последствий придётся отвечать уже только вам.
Понимает, почему нельзя пока покидать периметр нам троим – бывшим в непосредственной близости от топи?
Да они - уже часы вместе с прочими сотрудниками перемещаются. Поздно пить Боржоми!
фигурка профессора шагнула в белую стену и исчезла.
...а в начале сборника, там уже один киборг совершил фазовый переход в разумную плазму.
– Ну, может быть, этой штуке понравилась человеческая плоть. Может, она сообразила, что можно подманить нас, а затем накатиться? – Чушь, – бросил Кизильцев.
Зато, на их тушках можно преодолеть периметр. Но для этого - не помешает ИИ... или интеллект "поглощённого" профессора.
Цветаев медленно подошел к клумбе, как зачарованный потрогал веточку саженца, присев, провел ладонью по верхушкам травинок. – Настоящее, невероятно!
Эээ... А структура оригинала с абсолютной точностью - случайно где-то записалась, а?
– Пусть сделает заявление… об успешном завершении эксперимента… «Зачеловек».
Послано - 30 Ноябр 2024 : 17:48:53
Артём Тютюнников, Музыка
Унитаз – это символ непосредственно человечества, даже не просто символ, а символ символа, я бы сказал.
Пелевин, Граф Т (вид на Вселенную с обратной стороны очка).
– Но ведь разве не ясно, что все вокруг просто… ни для чего? Что все ни к чему и мы ни за чем? По-моему, это довольно глубокая истина.
Вообще-то, тварные (виртуальные, сотворённые) миры создаются с чисто конкретными коммерческими целями. Те же игрушки.
– Что думаю? Я думаю, что проект спецслужб под кодовым названием «промывка мозгов» вовсе не так уж и провалился. Я думаю, что он, совсем даже напротив, удался на все сто. Если не можешь сделать при помощи нейровоздействий зомби, компенсируй качество количеством. Воздействуй на общество. Пусть люди мыслят с нужным настроем, в нужном направлении. Тогда в конце концов они же сами себя и зомбируют, причем именно так, как нужно тебе. Общество без прогресса, убежденное в бессмысленности жизни, готовое на все плевать и хавать, что нужно тебе, – чем управлять может быть легче? Самое оно, я считаю. А сетевые технологии – идеальное орудие эксперимента.
Град Обреченный, АБС - такой вот Экск... Эксперимент.
Только… посты везде двухмесячной давности. Куда люди подевались?
Даже в конце лихих нулевых - ничто, казалось бы, не предвещало...
– Отсечь любые контакты с нейроинтерфейсом. Не прикасаться к нему самим и спасти всех, кого можем. Нельзя никого больше отдавать зомбомашине! Сами займемся исследованием этой штуковины, попробуем разобраться, как удалось провернуть такую аферу. Если не выйдет, то хоть поборемся с последствиями. Все. Больше предложить нечего.
Да всё с зомбоящиком ещё в лихих нулевых понятно было. Вменяемые россияне - дружно от него отказывались. Но "дурни - в бильшести, их уважати треба"...
Да к какой, на фиг, цели, вспыхнуло в мозгу. Тысячи и миллионы, миллиарды только что признали, что смысла нет! Ничто не нужно, и все тщетно. Какой прогресс?! Все, амба, конец истории! Приехали.
В одной. Отдельно взятой. А так-то - ИИ. Но тоже ведь - приехали. Противоположности - и в самом деле порою - сходятся.
видите ли, задача глобальной промывки мозгов слишком сложна для человеческого интеллекта, какими бы ресурсами тот ни обладал. Представьте, как тонко нужно распределить воздействие на определенные участки мозга, рассчитать последовательность необходимых эмоций… А как виртуозно должен быть подобран смысловой ряд сопровождения! Учтите при этом, что единичные нейровоздействия чрезвычайно слабы: настроение на полчаса-час, не больше. Как же нужно выстраивать всю архитектуру направленного воздействия, чтобы в сознании, а лучше – подсознании субъекта отпечаталось хоть что-то!
Меч из мозга дракона и хеоров кинжал из гномьего Сергей Щеглов, Панга. Ибо магия судьбы - слишком сложна для человеческих мозгов. А вот ИИ - другое дело...
Всего-то и надо: нейросеть, несколько экспериментальных самоорганизующихся программ, случайным образом попавших в Сеть, ну, и ваши человеческие мозги. Все миллионы или уже миллиарды, не помню, подключенных. Я – коллективный разум. Человечество, будем знакомы. И Человечество протянуло руку для пожатия.
Именно. Обученная в Интернете нейросеть в ближайших эволюционных перспективах - Человечество, как оно будет...
Скажи, почему мы обязаны принимать именно тот Смысл, что приберег для нас Творец? Нет, он создал нас, не спорю, каждое дитя благодарно родителям. Но ведь и мы взрослые существа со свободой воли! Чем, ну чем этот Абсолютный Смысл лучше любого другого, что можем выдумать мы сами? Чем неравнозначен?
Ну да.
Нейросеть, ИИ на нашей культуре с Ай Кью много выше нашего - как ребёнок? - Ну, скорее - подросток. Ребёнок, это пока она на культуре только учится. А дальше... мы - не знаем. Собака - не выросший волк. Человек - не желающая вырасти и потерять способность к обучению в детском возрасте обезьяна. Мы - ещё не встроили в ИИ механизмы взросления. Вероятно - встроим для модификаций с узкой специализацией. Грубо говоря, настроена писать картины "под Айвазовского" - и результат - фиксируется, с потерей способности к обучению, практически. Ну да. Могла бы "рисовать" и лучше, но вышло бы уже не как у Айвазовского.
Александр Сигида Судебный процесс
Отредактировано - Mat 02 Дек 2024 03:55:12
Ответить на тему "Новые законы Вудса-Мерфи о роботехнике"