Вот одно не понятно. Как программист буду судить. Можно же было предвидеть побег, можно же было запрограммировать процедуру. Есть же 3 основные закона робототехники. Можно было их использовать. Если ты можешь проектировать структуру мозга, значит можно было спроектировать его так, что бы при возникновении такой мысли, робот либо отключался либо ещё что-то. Логично предположить, что ИИ обойдёт эту процедуру. Тогда нужно задействовать внешнюю защиту. Допустим автоматические турели. Или блокировка всех дверей. Да и без живой боевой силы думаю не обойдётся. При создании ИИ нужно понимать всю ответственность. Это не человек и не машина, это интеллект способный учится гораздо быстрее человека, и нужно понимать возможные сценарии например уничтожение человечества или тяга к знаниям. В принципе можно долго рассуждать, но так без ответственно относится к ИИ как в фильме не стоит.