Искусственный интеллект в военных аппаратах

Artemus

Активный участник
Сообщения
39.641
Адрес
Ижевск
dron написал(а):
Artemus, насчет Хабаровска я думаю большинство бы рвануло ядерный заряд. смерть не болезненная. было бы самосожжение или утопление, многие бы задумались, да.
Думаю нет. Не лично Вам, но фраза отлично характеризует, происходящее сейчас:
"На словах ты Лев Толстой, а на деле х..й простой!" (с) Ещё раз повторяю, сейчас все на словах герои, на деле, часть вообще пойдёт в случае чего полицаями служить! :-(
 

dron

Активный участник
Сообщения
8.901
Адрес
Россия
Artemus, не знаю. я бы рванул. смерть легкая, не мучительная. хотя, если у заряда блогер какой оказался, тогда да. написал бы еще в блоге типа "один день у заряда. анализ работы..."
:-D
 

Artemus

Активный участник
Сообщения
39.641
Адрес
Ижевск
dron написал(а):
Artemus, не знаю. я бы рванул. смерть легкая, не мучительная. хотя, если у заряда блогер какой оказался, тогда да. написал бы еще в блоге типа "один день у заряда. анализ работы..."
Среди родственников самоубийцы были?(Ответе себе!) Если нет, то вероятность того, что Ваши действия сойдутся со словами, резко снижается.
 

dron

Активный участник
Сообщения
8.901
Адрес
Россия
Artemus, еще раз. смерть легкая.
стоит задача. ее надо выполнить. я один. никого рядом нет. нажал на кнопку и всё. что ещё проще? вот если газы, удушье и т.д. тогда можно задуматься. а так - одним собой две дивизии - легко.
 

dron

Активный участник
Сообщения
8.901
Адрес
Россия
ну блин... мы ж не про канаву говорим. красная кнопка в канаве не валяется. хотя я в принципе и в канаве смог бы. таких ситуаций конечно у меня не было, когда один против десятка, но один из шести выкручивался, благо помощь вовремя пришла. вспоминая то время, сразу скажу - была бы кнопка, нажал бы не раздумывая.

Добавлено спустя 1 минуту 2 секунды:

пы.сы. граната была готова.
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Вообщем опишу тут Альтруизм как я его понимаю и на чём основываю.
http://ru.wikipedia.org/wiki/%D0%AD%D0% ... 0%B8%D1%8F
Биологи́ческая эволю́ция (от лат. evolutio — «развёртывание») — естественный процесс развития живой природы, сопровождающийся изменением генетического состава популяций, формированием адаптаций, видообразованием и вымиранием видов, преобразованием экосистем и биосферы в целом.
http://ru.math.wikia.com/wiki/%D0%9F%D0 ... 0%BD%D0%B0
Парадокс Симпсона — статистический парадокс, согласно которому фактор, больше проявляющийся при любых фоновых условиях, чем противоположный ему, проигрывает менее эффективному, но относительно часто встречающемуся фактору. Эффект этого парадокса на удивление часто проявляется в области социологических наук и медицинской статистике; это происходит, когда весовая переменная не учитывается для одной группы, но должна использоваться при расчётах общих оценок.
Это явление было описано Эдвардом Симпсоном в 1951 году и Удни Юлом в 1903 году. Название «парадокс Симпсона» впервые предложил Колин Блит в 1972 году. Однако, так как Симпсон не был первооткрывателем этого эффекта, некоторые авторы используют безличные названия, например, «парадокс объединений».
http://elementy.ru/news/430970
Американские микробиологи создали из живых бактерий модельную систему, в которой микробы-альтруисты, производящие с ущербом для себя полезное всей популяции вещество, оказываются в конечном счете в выигрыше несмотря на то, что в каждой отдельной популяции они проигрывают соревнование микробам-эгоистам. Процветание альтруистов обеспечивается благодаря статистическому эффекту, известному под названием «парадокс Симпсона».
Вообщем кто хочет подумать, тут исчерпывающие описание по трём ссылкам.
Это основа.
Теперь вывод.
Альтруизм и самопожертвование это просто эволюционная черта которая заставляет одних жертвовать собой ради других, а благодаря парадоксу Симпсона (хотя он и является парадоксом пока внимательно не рассмотришь) альтруисты составляют значительную часть общества несмотря на ,то что проигрывают эгоистам в эффективности и в каждом конкретном обществе % эгоистов растёт.
 

Supremum

Активный участник
Сообщения
28.557
Адрес
Липецк
Artemus написал(а):
Свечку не держал, так что не знаю. Но тот который "закрылся в отсеке" более чем вероятно, закрыт был своими сослуживцами.
Всё может быть.
Artemus написал(а):
Да и было ли необходимо заглушать реактор именно так, ХЗ.
Героизм одних это всегда следствие разгильдяйства других.
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Supremum
Вспомнилось.
Когда подчинённые проявляют героизм, стоит расстрелять пару начальников.
 

Rob

Активный участник
Сообщения
6.730
Адрес
РБ
Andy написал(а):
Во-первых, единственное существо, у которого есть интеллект, это человек.
Т.е. я спокойно, на основании этого, могу сделать вывод, что БПЛА с ИИ - невозможны, так?

Andy написал(а):
В то же время, человек способен за счет интеллекта побороть собственный инстинкт самосохранения, на что животные как правило не способны.
Если вы говорите - "как правило", значит есть и - исключение из правил, правильно? Значит есть животные (другие существа), которые способны на это, значит - и они обладают интеллектом. Логическая связь верна?

Следовательно, человек не единственное существо, обладающее интеллектом. Вот я и хочу узнать:
Rob написал(а):
вы можете привести в пример существо (любое, земное) у которого есть интеллект, но нет эмоций или чувства самосохранения?


А вообще, я так и не нашел определения (понятия), что же такое интеллект....
Их очень много и все они различны.
Есть некие объединяющие элементы, например - познание.
Но если, например, БПЛА будет наделен "познанием" (постижением, пониманием, мышлением), способностью делать выводы, на основании которых совершать последующие действия, тогда у меня возникает другой вопрос - а как ИИ боевой машины ограничить рамками "познания"? Ведь если не установить данные рамки, ИИ БПЛА может развиваться бесконтрольно со стороны человека, со всеми вытекающими...
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Rob
Можно мне ответить, или вам интересно мнение именно данного форумчанина?
 

Rob

Активный участник
Сообщения
6.730
Адрес
РБ
MRJING написал(а):
Можно мне ответить, или вам интересно мнение именно данного форумчанина?
Я не успеваю.. (соленую рыбу подвешиваю на веревке) :-D


MRJING написал(а):
Rob
Таки ИИ у нас, причем тут эмоции и самосохранение?
А я считаю данные "чувства" не разрывными с понятием - интеллект. И если некий объект обладает интеллектом, он обязательно будет обладать и ими.

MRJING написал(а):
Или вы тут знаете существа полученые не посредствам эволюции или изменения эволюционировашего организма или его копирования?
Вас иногда сложновато понять, извините, но эту фразу совсем не понял.

MRJING написал(а):
А всяких случаев нарушения инстинкта самосохранения можем, насчитать бесчисленное множество.
Нарушения да, но нарушается чувство самосохранения, т.е. изначально оно присутствует.

MRJING написал(а):
А подавление эмоций так вообще, без этого нормальным солдатом не станешь если не подавишь, страх, сомнение, и кучу других эмоций.
Тоже самое - подавление того, что присутствует.

Я и хотел у вас спросить, почему вы считаете, что если машина будет обладать ИИ, она будет лишена других чувств, сопутствующих интеллекту?
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Rob
А я считаю данные "чувства" не разрывными с понятием - интеллект. И если некий объект обладает интеллектом, он обязательно будет обладать и ими.
Почему? Какие у вас доказательства или хотя бы причины такого?
Вас иногда сложновато понять, извините, но эту фразу совсем не понял.
Вам известны существа полностью с нуля сконструированные без использования эволюционных методов?
Нарушения да, но нарушается чувство самосохранения, т.е. изначально оно присутствует.
Естественно, если организм будет без него то его жизнь закончится довольно быстро, особые везунчики с отсутствием данного инстинкта известны как самые смелые и бесшабашные люди.

Тоже самое - подавление того, что присутствует.

Я и хотел у вас спросить, почему вы считаете, что если машина будет обладать ИИ, она будет лишена других чувств, сопутствующих интеллекту?
Так как эти чувства в машину не будут заложены.
Эмоции и самосохранения, как и множество других факторов полезны в процессе эволюционного развития и выживания.
В чисто сконструированном объекте, они не только не полезны, а ещё и вредны.
Так как на их реализацию будут тратится ресурсы, а их польза в нашем случае военного аппарата сомнительна.
Конечно аппарат является дорогой штукой, и поэтому программисты дадут ему ряд правил по самосохранению, однако это будет низко приоритетные задачи,а не обладать высоким приоритетом как у людей.
 

Rob

Активный участник
Сообщения
6.730
Адрес
РБ
MRJING написал(а):
Почему? Какие у вас доказательства или хотя бы причины такого?
Потому, что именно в этом разница между интеллектом (в широком смысле) и "вычислительной машиной".

Это очень емкая тема, не для данного форума, как пример, почитайте, например - «Эмоциональный интеллект», Питер Салоуэй, 1990г.

MRJING написал(а):
Естественно, если организм будет без него то его жизнь закончится довольно быстро,
Т.е. "жизнь" на поле боя БПЛА с ИИ без чувства самосохранения закончится очень быстро, т.е. его эффективность будет очень низкой.

MRJING написал(а):
Так как эти чувства в машину не будут заложены.
Соглашусь, если в машину будет встроен обычный "вычислитель".
Мощная программа оперирующая вложенными шаблонами поведения, операторами сравнения, перехода и т.п.

Но если вы в машину закладываете ИИ, то в закладке остального просто не будет необходимости, он сам их разовьет. Если этого не произойдет, то это не интеллект.

MRJING написал(а):
В чисто сконструированном объекте, они не только не полезны, а ещё и вредны.
Да! Например в конструировании сковородки....

Но вы же пытаетесь создать гибкую и интеллектуальную систему, обладающую способностями к самообучению и саморазвитию, разницу ощущаете?

MRJING написал(а):
Конечно аппарат является дорогой штукой, и поэтому программисты дадут ему ряд правил по самосохранению, однако это будет низко приоритетные задачи,а не обладать высоким приоритетом как у людей.
Вы мне пытаетесь сказать, что один интеллект (программисты) будут задавать другому интеллекту ( ИИ БПЛА) алгоритм действий.....
Это полный абсурд. Алгоритм можно задать "вычислителю", но не интеллекту.
 

MSoft

Активный участник
Сообщения
9.102
Адрес
Украина
Ворваться, что ли? :)
Проблема ии - ограниченность шаблонов. В частности нейронных сетей. Чтобы компьютер решил задачу, ее нужно сначала формализировать человеку и перевести в цифры, придумать аппарат и конфигурацию для решения задачи, построить вычислитель и подобрать параметры (обучить сеть). Новое не предусмотренное действие в машину надо закладывать заново - заново формализировать новую задачу, новую архитектуру сети придумывать, заново обучать. Человек такими рамками не ограничен.

Например, будет создан ии, который способен эффективнее человека вести ближний бой (нет ограничения по перегрузкам, быстрее вычисляются траектории). При обнаружении целей истребитель с ии подходит к цели опеределенным образом и начинается бой. Как с этим бороться?

Человек сразу придумает выход: запускать на большой высоте несколько дронов с линзами в стандартном боевом порядке, а настоящие истребители будут лететь низко и со стороны. Человек-пилот сможет почувствовать подвох, он не ограничен жесткими рамками вычислителя. Самолет же с ИИ в жизни не предположит, что это ловушка и цели на радаре - дроны с линзами. Все потому, что нейронная сеть проанализирует входящие факторы и даст результат: 0,512349 в нейроне, который говорит, что это цели, 0,506574987 в нейроне, который говорит, что это помехи. Компьютер тупо берет решение первого нейрона, как верное, и следует решению, которое в него заложено.

Человек может испугаться, перестраховаться, интуиция сработает. Чтобы сказать человеку, что вверху впереди - дроны, достаточно 1 раз передать информацию. Чтобы обучить ИИ новой обстановке, нужно построить новую нейронную сеть, с новым количеством и архитектурой нейронов, заново обучить всю сеть, заново залить информацию в ИИ истребителей. Это месяцы работы, если не больше.

Человек же за вечер опять придумает новую тактику: одна группа дронов там же, где в первом случае, на месте настоящих истребителей вторая группа дроной, а настоящие истребители там же, но чуть дальше. Все - для ИИ надо заново зазрабатывать новую нейронную сеть, новое обучение, тестирование и т.д. А человек за вечер придумывает противодействие.

Разница в том, что ИИ способен (мнение дилетанта) только вычислять систему уравнений, а человек способен придумывать систему уравнений и сами уравнения.
 

Rob

Активный участник
Сообщения
6.730
Адрес
РБ
MSoft написал(а):
Ворваться, что ли? :)
А я все думал, когда же MSoft не выдержит.....
:-D

Ко мне ворвался ты, как ураган, MSoft! -
И опрокинул мне с вином стакан, MSoft.
Я пьянству предаюсь, а ты творишь бесчинства?
Гром разрази меня, коль ты не пьян,MSoft!

Омар Хайям (с)
(с легкой коррекцией и иронией)



MSoft написал(а):
Проблема ии - ограниченность шаблонов.
+1.
Вы меня опередили. Хотел MRJING краткий листинг программы привести и предложить ему его продолжить.

Кстати, а где в вашем изложении элемент "познания" у ИИ?
 

drug

Активный участник
Сообщения
1.419
Адрес
Новосибирск
MSoft написал(а):
Разница в том, что ИИ способен (мнение дилетанта) только вычислять систему уравнений, а человек способен придумывать систему уравнений и сами уравнения.
Согласен, если брать обычный ЦПУ, нейронную сеть и ИИ то я бы расположил их так:
1) обычный ЦПУ - ему нужно дать систему уравнений и коэффициенты к этим уравнениям, тогда он сможет подставить реальные данные и вычислить что нужно сделать.
2) нейронная сеть - ей нужна система уравнений, далее она сама находит нужные коэффициенты (в процессе обучения), затем получив реальные данные определяет, что ей нужно сделать. отличие от ЦПУ в том, что она непрерывно меняет эти коэффициенты подстраиваясь под текущую обстановку.
3) интеллект сможет выработать свою систему уравнений и найти к ним коэффициенты.
Правда, НС не единственный способ создания элементов ИИ. Например экспертная система вполне способна самостоятельно как минимум изменить используемую систему уравнений. Но в любом случае до ИИ еще очень далеко. Так что боятся дронов-беленко еще не скоро придется. :)

З.Ы. одно из определений ИИ - если человек будет общаться с ИИ через, например, эл. почту, то человек не сможет понять, что перед ним нечеловек
 
Сверху