Может ли случится, что на определенном этапе развития ИИ в военных аппаратах, он посчитает человека лишним на Земле и решит его уничтожить (известный сюжет фильма о Терминаторе)?
Это киношно/книжная чушь, ибо да же ИИ "будет думать" в определенных рамках. Вот например возьмем собаку, у ней есть интеллект, хоть и не сильно развитый, врожденные инстинкты задают определенную манеру поведения, плюс человек может её натренировать, да же та собака которая которая "не слушается" (т.е. её плохо или вообще не воспитывали) вдруг не решит взять и поменять хозяина, несмотря на то, что хозяин может не кормить её и постоянно бить.
Так же мне не понятна логика почему вдруг ИИ (пускай хотя самый умный) обратится против своих.
Во-первых, ИИ действует в определенных рамках, да и вообще выполняет конкретные задачи, филосовствовать ему некогда, да и вообще он не знает что это...
Во-вторых, если у ИИ происходит отклонение от выполнения опр. задач, то это сбой, а сбой будут исправлять и да же если програмно его нельзя отключить (тут программисты будут полными мудаками), то ему скучно и быстро отрубят питание (в кино этого никогда не бывает ибо не экшон получается). Кстати еще до отключения, ИИ обрубят "инет" так что он вообще ничего не сможет сделать, да же если захочет....
p.s. меня кстати всегда прикаловало, что у киношных/книжных ИИ, есть чувства (зачем мне тостер с чувствами (с) х/ф "Я робот"), не смотря на то, что чувства это не следствие интеллекта, а физиологии.