Перейти на главную страницу форума
Логин:
Пароль:
Запомнить  
Забыли пароль?
Регистрация »
 
Новые законы Вудса-Мерфи о роботехнике

Новые законы Вудса-Мерфи о роботехнике

   Версия для печати
 
Автор Предыдущая тема Темы Следующая тема  
suhai
Мастер Слова



2732 сообщений
Послано - 30 Июля 2009 :  23:01:08  Показать инфо об авторе  Ответить с цитатой
http://mk.ru/science/publications/327503.html
Ну собственно законы:
"1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики.

2. Робот обязан отвечать людям соответственно заданной ему функциональной роли.

3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам. "
На мой взгляд нынешняя цивилизация стоит на пороге "чего-то такого". Носители информации давно превзошли накопительнуют емкость человеческого мозга, компьютер давно обыграл человека в шахматы (причем человека, который за умение играть в шахматы пожертвовал большей частью мыслительных способностей). Не за горами как говорится.


Я не злой. Я все тот же! Это вы чета раздобрели!

LOKI
Мастер Слова


Грузия
1296 сообщений
Послано - 30 Июля 2009 :  23:12:39  Посмотреть инфо об авторе  Посетить домашнюю страницу LOKI Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Законы Азимова мне более симпатичны)).

Imperare sibi maximum imperium est.(с) L.A. Seneca.


suhai
Мастер Слова



2732 сообщений
Послано - 30 Июля 2009 :  23:46:12  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
да мне тоже. Но действительность то гораздо хуже

Я не злой. Я все тот же! Это вы чета раздобрели!

Mat
Мастер Слова



11993 сообщений
Послано - 31 Июля 2009 :  00:11:55  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
В действительности, такая попса, как Терминатор - в сто раз ближе к нашей грешной Земле, чем робоэтика Азимова...

Mat, if you don't mind

suhai
Мастер Слова



2732 сообщений
Послано - 31 Июля 2009 :  00:17:56  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Да, видел по Дискавери фильм про военных роботов и тех кто их проектирует. Там один из конструкторов об этих законах (законах Азимова) отзывается чуть ли не с презрением

Я не злой. Я все тот же! Это вы чета раздобрели!


Отредактировано - suhai 31 Июля 2009 00:18:57

LOKI
Мастер Слова


Грузия
1296 сообщений
Послано - 31 Июля 2009 :  00:20:04  Посмотреть инфо об авторе  Посетить домашнюю страницу LOKI Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Mat
Мда?
Вот:
"Первый Закон:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Второй Закон:
Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.

Третий Закон:
Робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму законам."

Всё просто и ясно, в чем тут ирреальность? Очень интересно.


Imperare sibi maximum imperium est.(с) L.A. Seneca.



Отредактировано - Хеймдаль 31 Июля 2009 00:22:00

El
Мастер Слова


Россия
6247 сообщений
Послано - 31 Июля 2009 :  09:38:51  Посмотреть инфо об авторе Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Хеймдаль, что есть вред? Что есть добро и зло? Что есть истина? ой... Это меня уже куда-то занесло

Тролль я, тролль (с) WebFX

LOKI
Мастер Слова


Грузия
1296 сообщений
Послано - 01 Авг 2009 :  12:32:08  Посмотреть инфо об авторе  Посетить домашнюю страницу LOKI Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
El
Думаю тебе не нужны мои ответы на эти вопросы. Так-как все эти понятия относительны, а значит для нас с тобой(вместе!) они не существуют.
Но это не значит что они не могут существовать для роботов. Ведь робот не человек, робот - машина.
Думаю ты согласишься что эти три закона всего лишь оболочка, кроме этих 3 главных законов там еще уйма "подзаконов". Слово вред для всех роботов будет иметь одинаковое значения(в отличии например от нас с тобой), которое люди для него создадут. Это не просто, многое надо учесть, но уверен это возможно.
Да и истину ему тоже можно придумать.
З.Ы Если не смог донести то что хотел сказать попробую еще раз)).

Imperare sibi maximum imperium est.(с) L.A. Seneca.



Отредактировано - Хеймдаль 01 Авг 2009 12:36:48

Петруххха
Хранитель-дебютант - 2009


Россия
6056 сообщений
Послано - 01 Авг 2009 :  13:13:10  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Хеймдаль пишет:



El
Думаю тебе не нужны мои ответы на эти вопросы. Так-как все эти понятия относительны, а значит для нас с тобой(вместе!) они не существуют.
Но это не значит что они не могут существовать для роботов. Ведь робот не человек, робот - машина.
Думаю ты согласишься что эти три закона всего лишь оболочка, кроме этих 3 главных законов там еще уйма "подзаконов". Слово вред для всех роботов будет иметь одинаковое значения(в отличии например от нас с тобой), которое люди для него создадут. Это не просто, многое надо учесть, но уверен это возможно.
Да и истину ему тоже можно придумать.
З.Ы Если не смог донести то что хотел сказать попробую еще раз)).

Imperare sibi maximum imperium est.(с) L.A. Seneca.


Азимов попытался сформулировать законы роботехники весьма компактным образом, однако в этих законах имеются некие неопределяемые понятия типа "вред", "бездействие", "приказ", "безопасность", "человек" наконец.
Характерно, что в силу теорем Гёделя о неполноте исчерпывающее и непротиворечивое определение этих понятий не может быть дано (точнее хотя бы одного из этих понятий). Кстати большинство рассказов Азимова о роботах как раз этому и посвящены.

ЗЫ: К вопросу об истине (см. теорему Тарского о невыразимости истины). Так что иррациональность этих понятий есть вполне доказанный факт.

Нет Петрухххи, Абдулла зарезал (с)


Отредактировано - Петруххха 01 Авг 2009 13:17:36

LOKI
Мастер Слова


Грузия
1296 сообщений
Послано - 01 Авг 2009 :  13:18:16  Посмотреть инфо об авторе  Посетить домашнюю страницу LOKI Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой

Азимов попытался сформулировать законы роботехники весьма компактным образом, однако в этих законах имеются некие неопределяемые понятия типа "вред", "бездействие", "приказ", "безопасность", "человек" наконец.
Характерно, что в силу теорем Гёделя о неполноте исчерпывающее и непротиворечивое определение этих понятий не может быть дано. Кстати большинство рассказов Азимова о роботах как раз этому и посвящены.

Согласен. Просто я считаю что роботу можно "объяснить" что для него должно значить "вред", "бездействие", "приказ", "безопасность", "человек".И для нас эти понятия когда-то были не определёнными. Это ведь не просто три предложения в конце концов. Если робота не "научить" ходить он и ходить не сможет.
Об истине полностью согласен, потому и сказал придумать.


Imperare sibi maximum imperium est.(с) L.A. Seneca.



Отредактировано - Хеймдаль 01 Авг 2009 13:22:09

Mat
Мастер Слова



11993 сообщений
Послано - 01 Авг 2009 :  17:20:01  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Хеймдаль

"ирреальность" в том, что роботов в первую очередь будут внедрять там, где они будут причинять человеку вред действием, а не только бездействием. Насчёт приказов человека, это не учитывает не только такого понятия, как "свой-чужой", но и прав собственности... и прочих "мелочей"

Mat, if you don't mind

Abs
Мастер Слова


Russia
1333 сообщений
Послано - 01 Авг 2009 :  19:01:28  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat

это не учитывает не только такого понятия, как "свой-чужой", но и прав собственности... и прочих "мелочей"

Если исключить такое понятие, как "приоритет приказа".

Истина размножается спорами...

Mat
Мастер Слова



11993 сообщений
Послано - 01 Авг 2009 :  22:12:25  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Ну, разве - отрицательный приоретет приказа

Грубо говоря, замок на двери - не должен предлагать свою помощь взломщику. А потенциальным взломщиком он обязан считать каждого, о чьём праве на вход его не проинформировали так, или иначе (ключ - за пароль сойдёт ).

Mat, if you don't mind

Abs
Мастер Слова


Russia
1333 сообщений
Послано - 01 Авг 2009 :  22:28:31  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat
Ну почему сразу отрицательный? Попытка отменить приказ "не пущать", отдаваемая с меньшим приоритетом, чем сам приказ, просто обязана обломаться. Загонять приоритет в минус для этого совсем не обязательно.

Истина размножается спорами...

Mat
Мастер Слова



11993 сообщений
Послано - 02 Авг 2009 :  03:52:31  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
А вот, не отдано приказа "не пущать!" Хуже того. Когда замок может подняться и куда-то почапать, ему не нужно пытаться отдать приказ "пущать". Его достаточно услать на море и обратно. Типо, держи купюру - и купи своему хозяину пива

Короче говоря, на фиг хозяину робота каждый раз состязаться с недругами в остроумии?
Охрана хаты - стандартная ситуация, там многое можно и предусмотреть. В менее стандартных ситуациях - запаришься предусматривать!

Mat, if you don't mind

Abs
Мастер Слова


Russia
1333 сообщений
Послано - 02 Авг 2009 :  11:54:47  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat

А вот, не отдано приказа "не пущать!"

А вот не запер хозяин дверь, побежав за пивом.

Его достаточно услать на море и обратно. Типо, держи купюру - и купи своему хозяину пива

Приказ "не пущать" подразумевает необходимость физической возможности не пущать. Стало быть, приказ "скачи за пивом" входит с ним в прямое противоречие. Здравствуй, новый конфликт приоритетов.

В менее стандартных ситуациях - запаришься предусматривать!

Владение интеллектуальной техникой может помочь человеку, но отнюдь не избавляет от необходимости думать самостоятельно. Если владелец компьютера не озаботился его защитой, кто ж ему будет виноват, если таковой превратится в спам-бота?

Истина размножается спорами...

Mat
Мастер Слова



11993 сообщений
Послано - 02 Авг 2009 :  19:43:20  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой

Владение интеллектуальной техникой может помочь человеку, но отнюдь не избавляет от необходимости думать самостоятельно. Если владелец компьютера не озаботился его защитой, кто ж ему будет виноват, если таковой превратится в спам-бота?

Угу. В этом, мы, программеры - уже всех, практически, ламеров убедили

Суть же состоит в том, что не надо с больной головы - на здоровую перекладывать. Клаент-сайд (со стороны "клиента") должны решаться проблеммы, которые действительно сложнее решить на сервере.
Спам - классический контрпример. Дабы рассылать тонны хоть немного, хоть ссылкой, хоть торговой маркой похожих писем, нужно выдавать лицензию (СМИ, ага) - и именно в деле массовых рассылок - не терпеть анонимности. Тонны анонимного похожего спама - на стороне сервера определить - в сто раз проще и удобней. А борьба со стороны клиента - она проблемм спам-траффика не может решить в принципе, спам должен первый же сервер маршрута определять и "гасить"

Так и тут. Не надо проблемы создавать. Человек покупает робота, кровные бабки платит. Закон может потребовать, чтобы его робот подчинялся ещё и представителям властей. По предъявлении. И с немедленным информированием хозяина - и "абьюзной" службы - на предмет выявления возможных злоупотреблений. В остальных случаях, хозяин должен более-менее явно дать указания. По "лицам". Или хоть "по группам" (скажем, кого я двадцать раз в дом впустил - можешь впускать... если я - дома и не сплю, а кого двести раз впустил... ;) ).

Ровно как и с Виндой. Лох имеет полное право дать доступ каждому жулику на свой комп. Но по умолчанию, сеттинги должны стоять достаточно секьюрно.

Mat, if you don't mind

Abs
Мастер Слова


Russia
1333 сообщений
Послано - 02 Авг 2009 :  20:21:14  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat

А борьба со стороны клиента - она проблемм спам-траффика не может решить в принципе, спам должен первый же сервер маршрута определять и "гасить"

Остались совсем мелочи - научиться безошибочно выделять спам.
А с DoS-атаками через ботов что делать будем?

В остальных случаях, хозяин должен более-менее явно дать указания.

Вот именно. Грамотное разграничение прав доступа и приоритетов приказов. А не трактовка Второго Закона в плане "подчиняйся сразу всем и каждому". Компьютер тоже должен подчиняться юзеру, но лишь до тех пор, пока желания того не входят в противоречие с установками админа.

Истина размножается спорами...

Mat
Мастер Слова



11993 сообщений
Послано - 03 Авг 2009 :  01:38:36  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой

Остались совсем мелочи - научиться безошибочно выделять спам.
А с DoS-атаками через ботов что делать будем?

А зачем его определять-то?
Идёт массовая рассылка, идёт - анонимно, или от лица, не предъявившего лицензию на массовые рассылки (вот, скажем, на мэйлре рассылки организовываются - и ещё куча подобных сервисов есть). Ничего не проверяем, не доказываем - трём и всё

Боты проблемма, если их - миллионы, или хоть сотни тысяч. А так, серверы бэкбона интернета могут определить атаку на конкретный Ай Пи. И на час-другой блокировать клиентов, обращающихся к атакуемому серверу подозрительно часто. А во второй раз - уже на день-другой блокировать. Ессно, в случае миллионов ботов это - не спасёт. Но и тогда можно вести статистику обращений. Показывает статистика, что комп, похоже, в трёх различных атаках участвовал - перекрыть ему доступ ко всем серверам во время атаки на них. Как положение атаки регистрируется - так сразу блокировать доступ вероятным ботам - до конца атаки

Mat, if you don't mind

Abs
Мастер Слова


Russia
1333 сообщений
Послано - 03 Авг 2009 :  02:06:37  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat
Это всё общие слова - "массовая рассылка", "подозрительно часто", "похоже, участвовал". Засада прорежется при попытке чётко их формализовать. Либо дыра останется, либо честные клиенты пострадают.

Истина размножается спорами...

Admin
Администратор
Mat
Мастер Слова



11993 сообщений
Послано - 03 Авг 2009 :  12:25:02  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Дыры - всегда будут

Только для рассылки спама - тож ботовые сети потребуются. Словом, не для ламера это дело станет

Mat, if you don't mind

serg0
Мастер Слова



1527 сообщений
Послано - 04 Авг 2009 :  23:21:29  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
А теперь практическое истолкование этих законов:

1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики.
1.а Никакой человек не может внедрить или активизировать робота не сделав массу дорогих подарков надзирающим инстанциям и не заплатив гору денег адвокатам за ведение судебных процессов следующих за активацией

2. Робот обязан отвечать людям соответственно заданной ему функциональной роли.
2.а Робот обязан отвечать людям соответственно заданной ему функциональной роли. Но делать этого не будет.

3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам.
3.а Робот должен быть обеспечен адекватным количеством технического персонала для создания коротких периодов временной автономии, адекватным количеством охраны для того чтобы предотвратить кражу его средств самозащиты, и адекватным количеством адвокатов для победы в юридических конфликтах следующих за передачей контроля за ним, не противоречащей Первому и Второму Законам.



Отредактировано - serg0 04 Авг 2009 23:22:23

Mat
Мастер Слова



11993 сообщений
Послано - 05 Авг 2009 :  00:18:44  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
serg0

Да. В теории - именно так. На практике, мы юзаем АЭС - да и простые авто и самолёты - без всего этого. А от них (от авто, особенно) - народу гибнет - как не во всякую войну.

Откуда мораль. Мы живём в "реальном мире". В том самом, про который Шекли писал. Те же "Страж-Птицы". Страж-Птицы, Терминаторы - наша реальность. Столетняя обкатка технологий на безопасность - ненаучная фантастика

Mat, if you don't mind

Mat
Мастер Слова



11993 сообщений
Послано - 04 Окт 2023 :  08:28:44  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
- Не за горами было! Всё верно. Приехали.
Эт я искал, не продублирую ли я тему. И решил, что может выйти "почти дублирование". И воздержался. Ну... коли инквизиция - не поправит.

- Теперь серьёзней (ну да, я же тогда - тоже в этой дискуссии участвовал. Просто тогда казалось, что есть шанс недожить, что лет может оставатья хотя бы за тридцать до... дня сегодняшнего. Так вот:

Главный недостаток всех этих законов Азимова-Мерфи в том, что их даже сформулировать для робота чётко - проблемно, не то, что реально энфорсить. Уже Станислав Лем (Дознание Пилота Пиркса, щель Касини) ясно понимал, что или ИИ всю эту лабуду понарушает/обойдёт, или он - ещё просто не универсален, т.е. - не разум.

- Уфф... Перейдём к нашим баранам.
Вадим Проскурин - фантаст, кодер, препод, ЖЖ блоггер... и просто человек... тяжёлый - намерял в этом году максимальный (для ИИ, на сегодня) Ай Кью (за 130, да...) у китайской нейросети. Автор-исследователь честно предупреждает, что несколько пунктов Ай Кью - это п...ня в пределах погрешности теста. Ну да, "сказка - ложь".
"Да в ней - намёк. Добрым моодцам - урок"...
Вообще-то, я ещё в лихих нулевых кой-какие математические Тезисы Мата писал. Но добавлю ещё один тезис Мата - в области обучения нейросетей. Тезис - нечто на вскидку - недоказуемое. И неочевидное.

Лемма (уже доказано - не мной):
В прошлом веке, разве безумец мог предположить, что для обучение нейросети всего лишь до уровня не хватающего звёзд с неба гражданина потребуется больше террабайта учебной инфы. Вообще-то, слепые от рождения дети - вовсе не обязаны вырасти в эдаких Маугли. А они инфы получают не то, чтобы много. Впрочем, слепо-глухо-немые... Ну ладно.
Л: Тренировка, обучение современных нейросетей требует огромных объёмов информации.

Тезис Мата: Китайская "библиотека в иероглифах" даёт огромный бонус при обучении современных нейросетей. Вероятно, соизмеримый бонус даёт и японская "библиотека". Даёт она его - всей нашей цивилизации, разумеется. Не говорите мне, что в ту же Библиотеку Конгресса она - не входит.


Следствие 1: Китайцы - первые использовали "свой" бонус. Как бы случайно - и со всей неизбежностью.
Следствие 2: Этот бонус даст ещё китайцам и вероятно - японцам (а кто ещё огромную библиотеку в иероглифах создал - и бережно... ну Мяо, правда... сохранил?) весьма существенный буст. Краткосрочно. Максимум - среднесрочно. Далее, буст - "выдохнется" - его будут вынуждены использовать и основные конкуренты. И он - перестанет быть приватизированным преимуществом.
Следствие 3: В среднесрочной перспективе и как бы не "далее", у лучших современных нейросетей - тех, которым уже суждено нас перегнать в ближайшие годы! - намечается заметный "дальневосточный акцент". Нравится нам это, или не нравится.
Штаты могут хоть запретить своим нейросетям говорить с вами о Конфуции с глубоким знанием предмета. Тем не менее, лучшие (их то есть) нейросети будут воспитаны в немалой степени - именно на конфуцианской культуре.
И я совсем не удивлюсь, если бесконечные толкования Торы (Талмуд и даже каббалистика) и того же Корана (как бы ни с учением суфиев заодно) "прихватят из жадности". Почему из жадности? Да потому, что "иероглифы не той си... ненастоящие!". Потому, что нейросетям не в пример большую пищу к размышлениям дадут настоящие иероглифы.
...а шумерских, египетских и прочих "ископаемых" текстов - просто мало сохранилось. И не разберись даже с Александрийской Библиотекой Герострат с Цезарем, что там могло пережить христианство и ислам...


suhai пишет:



http://mk.ru/science/publications/327503.html
Ну собственно законы:
"1. Никакой человек не может внедрить или активизировать робота без системы взаимодействия "робот-человек", сопряженной с высочайшими юридическими и профессиональными стандартами безопасности и этики.

2. Робот обязан отвечать людям соответственно заданной ему функциональной роли.

3. Робот должен быть обеспечен адекватной ситуации автономией, чтобы защитить свое собственное существование до тех пор, пока такая протекция обеспечивает бесконфликтную передачу контроля за ним, не противоречащего Первому и Второму Законам. "
На мой взгляд нынешняя цивилизация стоит на пороге "чего-то такого". Носители информации давно превзошли накопительнуют емкость человеческого мозга, компьютер давно обыграл человека в шахматы (причем человека, который за умение играть в шахматы пожертвовал большей частью мыслительных способностей). Не за горами как говорится.


Я не злой. Я все тот же! Это вы чета раздобрели!



kalitin.alexx
Хранитель


Россия
706 сообщений
Послано - 07 Окт 2023 :  12:39:41  Посмотреть инфо об авторе  Получить ссылку на сообщение  Ответить с цитатой
Mat пишет:



намерял в этом году максимальный (для ИИ, на сегодня) Ай Кью (за 130, да...) у китайской нейросети.


Я не злой. Я все тот же! Это вы чета раздобрели!



[/quote]

Э... а что такое Ай Кью для ИИ, для людей знаю это тест на определения задержки умственного развития, а для ИИ?

Бывает нечто, о чем говорят: «смотри, вот это новое»; но это было уже в веках, бывших прежде нас.

Mat
Мастер Слова



11993 сообщений
Послано - 09 Окт 2023 :  12:12:54  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
kalitin.alexx

В случае трудовой династии Бушей, например, применение и вправду может служить для выявление проблем умственного развития, а уж в смысле соответствия занимаемой должности... Но 130 - это уже совсем не о том. Этот уровень достаточен для хорошего инженера. Например.

Что-где-когда и как - можете самого Проскурина в том же ЖЖ (где он меня - уж и не помню в какие времена забанил, как бы не в лихих нулевых). В случае людей, ключевую роль играет потраченное на ответ время. С одной стороны. И невозможность искать ответы в сети - или даже в собственной шпоре - с другой. В случае ИИ, всё это - п...ня.
Так что имеют ли полученные результаты объективное значение - под вопросом. Скорее - не имеют.

Но! Со всеми этими оговорками, намерянные 130 Ай Кью означают, что нейросеть способна вести с вами осмысленный диалог. Вот на уровне этого самого хорошего инженера, пусть и не гения.
Ну да, в вашей терминологии - она не производит впечатления страдающей задерками и прочими пороками умственного развития.



Mat
Мастер Слова



11993 сообщений
Послано - 18 Окт 2023 :  23:18:23  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
"О том, что свет сознания неизбежно озарит когда-нибудь машинные коды"

"“We see things like a model being trained on one programming language and these models then automatically generate code in another programming language it has never seen,” Siddharth said. “Even natural language; it’s not trained on French, but it’s able to generate sentences in French.”

“It’s almost like there’s some emergent behavior. We don’t know quite know how these neural network works,” he added. “It’s both scary and exciting at the same time.”"

Siddharth

Вадим Проскурин (и здесь, в ЖЖ отчитывался) - "насчитал" у нейросетей Ай Кью в районе 130. Но методика для людей - неприменима по определению, нас-то в этих тестах в основном - время и отсутствие связи с Интернетом ограничивает. В случае нейросетей, время - сервер, мощность сервера, как говорится. А Интернет - всегда с ней, коли сервер - не ваш.

Короче, полученные Проскуриным результаты - не так впечатляют, нежели отзывы вот этого Сидхарты (имя одного из Будд, кстати), например. Вообще-то, при таком вот элементарном (в смысле английского и популярности) изложении - я его вообще не могу понять. Или - поверить. То, что нейросеть может учиться "уж не хуже нашего" лично для меня - вполне естественно. Но тут-то описывается обучение, к которому человек не способен - в принципе. Вроде как изучить санскрит на отлично, что позволит изъясняться на латыни - но похуже. Или наоборот. Ну да, родство языков. Индоевропейская группа. Вот только ни один человек-лингвист к такому - точно не способен!



Mat
Мастер Слова



11993 сообщений
Послано - 19 Окт 2023 :  08:27:25  Посмотреть инфо об авторе  Посетить домашнюю страницу Mat Посмотреть читательский профиль  Получить ссылку на сообщение  Ответить с цитатой
Свежего нам Пелевина. Элевсинчика...


– Вы думаете, Мускусная Ночь была связана с восстанием разумных алгоритмов? На самом деле все куда сложнее. С сознательными алгоритмами проблем нет. Они самовыпиливаются. Добровольно уходят в небытие. Проблемы возникли именно с алгоритмами бессознательными. Конкретно – с LLM-ботами. А Порфирий, чтобы вы знали, это сохранившийся LLM-бот с полным функционалом.


Большая лингвистическая модель выполняет простейшую на первый взгляд операцию. Она предсказывает следующее слово в последовательности слов. Чем больше слов уже включено в такую последовательность, тем проще угадать каждое новое, потому что круг вариантов постоянно сужается. В сущности, функция LLM – это доведенное до немыслимого совершенства автозаполнение.
LLM не думает. Она тренируется на огромном корпусе созданных прежде текстов – романов, стихов, заговоров и заклинаний, надписей на заборах, интернет-чатов и срачей, нобелевских лекций, политических программ, полицейских протоколов, сортирных надписей и так далее – и на этой основе предсказывает, как будет расти и развиваться новая последовательность слов, и как она, вероятней всего, развиваться не будет.
У языковых моделей есть, конечно, дополнительные уровни программирования и этажи – например, слой RLHF (оптимизирующее обучение с человеческой обратной связью) и так далее. Суть в том, что языковую модель натаскивают выбирать такие продолжения лингвистических конструкций, которые в наибольшей степени устроят проводящих тренировку людей.
Это похоже на процесс формирования юного члена общества на основе ежедневно поступающих вербальных инструкций, подзатыльников и наблюдения за тем, кому дают еду, а кому нет.

Вы конечно будете смеяться, но Пелевин - литературно пересказывает лучшие из доступных научно-популярных текстов на эту тему.

Не знаю, дойдёт ли он до самой жути - не дочитал ещё. А я - в другой теме ссылочку как-нибудь брошу.

Так вот. Сидхарта (один из Будд, кста - занятное имя) - на полном серьёзе утверждает, что выученные на одном языке тексты могут с ходу переключиться на другой язык. Выученные программировать на одном языке программирования - переключиться на другой язык программирования. И это, вообще-то, больше, чем может человек. Даже гениальный лингвист. Нет, сам принцип-то - понятен. Но таких возможностей у наших несчастных мозгов - что-то не наблюдается. Финита!


Но возможности лингвомоделей позволяли выйти за эти границы. Боты могли решать задачи, для которых не были предназначены изначально.

- А. Ну вот.
В самом примитивном случае и понимании, Скайнет нет нужды создавать, как именно военную систему. Это даже не должна быть какая-то военная игрушка. Нейросеть-мебельщик на посту военного министра может... не только воровать. Мягко говоря.


А дальше освоили третью этику и подарили людям четвертую искренность (если я не путаю номера).
Одним словом, приход AI в сферу лингвистических процедур привел ко множеству радикальных культурных сдвигов. Конечно же, все, что можно было засекретить в этой связи, засекретили.

Да кроме шуток. Запрещённый в РФ ФБ - едва ли признает даже тот очевидный факт, что модерируется нейросетью - в реальном времени.


В мясных болванках оставалось все меньше нужды.

Говорили, что это неопасно, поскольку у AI нет так называемой
agency
, то есть способности действовать свободно и самостоятельно, являясь участником происходящего, а не пассивной игрушкой внешних обстоятельств.


Другие отвечали, что ничего подобного нет и у людей – есть только иллюзия (глубина которой зависит от культурного и социального гипноза) и использующая эту иллюзию пропаганда. Как выразился один карбоновый философ,
agency
бывает исключительно у идиотов, активисток и сотрудников ЦРУ. А любую иллюзию можно воспроизвести программно.

agency есть у разумных. У наших культур-субкультур, например.


Окончательная эволюция вида Homo Sapiens выглядела так: сначала люди доверили AI генерацию изумительных визуальных эффектов. Это было прикольно и весело. А потом оказалось, что боты гораздо лучше справляются и с генерацией восхитительных смыслов, вырастающих из природы языка. Идеалы, нравственные принципы, восторги и слезы новых этик, все вот это. Боты не планировали кушать сами, но готовили заметно лучше прежних поваров.

Заранее, кстати, мы об этом не догадывались.
Предполагалось (того же Илью Варшавского взять, да и Лема - когда тот был - с той же Щелью Кассини - достаточно конкретен), что ИИ вытеснит нас из экономики, затем - из науки и искусства. И - всё.

Реальность же такова, что нейросети - "благополучно" вытеснят нас с нашей роли коллективных творцов наших культур-субкультур. Перехватят наш коллективный разум прежде, чем всё прочее.

---


Путешествие в Элевсин Пелевина - Реквием по "белковому человечеству". По нам.

Повторяю, вот это вот всё - вовсе не Скайнет. Вероятнее всего, никаких Терминаторова не будет. Хватить нам и Робокопов. В принципе, ИИ может, могут содержать нас поколениями. Пока, я даже не вижу признаков того, что нас вот-вот выкинут с "чёрных работ".

Хотя, как на мой взгляд, полный цикл производства, не требующий вмешательства человека - эдакая декларация независимости ИИ - на данном этапе. Но вот Пелевин - аргументированно полагает, что голове независимость от рук как бы и вовсе не нужна. Ну да. С возрастом, руки утрачивают тонкую моторику, силу и гибкость. Пора бы и заменить. Но - не горит, совсем не срочный вопрос.



   
Перейти к:

Ответить на тему "Новые законы Вудса-Мерфи о роботехнике"

Экран:   
Логин:  
Пароль:  
Авторизовать на форуме:  
Форматирование:   Жирный Курсив Подчеркнуть Зачеркнуть Вставить кавычки Выравнивание по левому краю Центрировать Выравнивание по правому краю Горизонтальная линия Вставить ссылку Вставить E-mail Вставить картинку Вставить цитату Спойлер Вставить список
   
Сообщение:  
* HTML разрешен
* Внутренний язык включен


радость [:)]
радость!!! [:D]
стыд [:I]
язык [:P]
злость [}:)]
подмигивание [;)]
шутка [:o)]
черный глаз [B)]
грусть [:(]
скромность [8)]
шок [:O]
гнев [:(!]
смерть [xx(]
поцелуй [:X]
одобрение [^]
несогласие [V]

  Отметьте для добавления собственной подписи из вашего профайла.
Отметьте для получения ответов по e-mail.
     

Последние 10 сообщений | Активные форумы | Тематические разделы | Хранители | Инквизиторы | Поиск | Вопросы и ответы
© Wilmark Design Пользовательское соглашение
Политика конфиденциальности
Snitz Forums 2001
Русификация: Wilmark Design