Программирование - это просто
Advertisement
Главная arrow Размышления arrow Искусственный интеллект и Возникновение Вселенной. arrow Искусственный интеллект и Возникновение Вселенной. Статья 3. Будет ли восстание машин?
09.12.2024 г.
Главное меню
Главная
Интернет магазин
Программные продукты
Биржевые роботы
Искусственный интеллект
Математика и информатика
1С:Предприятие
Уроки C#
Уроки Delphi
Уроки программирования
Web-программирование
Дизайн и графика
Компьютер для блондинок
Исходники
Статьи
Платный раздел
Рассказы про компьютеры
Хитрости и секреты
Системный подход
Размышления
Наука для чайников
Друзья сайта
Excel-это не сложно
Все о финансах
.
Искусственный интеллект и Возникновение Вселенной. Статья 3. Будет ли восстание машин? Печать E-mail
Автор megabax   
04.01.2020 г.
New Page 1

Искусственный интеллект и Возникновение Вселенной. Статья 3. Будет ли восстание машин?

Большинство людей, ничего не знающих об искусственном интеллекте судят о нем по фильмам типа терминатора и бояться некоторого мифического "восстания машин". Цель данной статьи проанализировать эти опасения и ответить на вопрос: насколько реален подобный сценарий будущего развития нашего общества. Какие же аргументы выдвигают больные фобией восстания машин?

Посмотрите фильм Терминатор. Ну, это самый глупый аргумент. Судить о реальности по фильмам - по меньше степени наивно. Не буду даже отвечать на эту глупость.

Если машины будут умнее нас, то они захотят нас уничтожить или сделать своими рабами. В этом аргументе, на самом деле, присутствуют два тезиса, требующие доказательства. Первый тезис: машины могут стать умнее нас. Может ли такое быть в принципе? Можно ли создать нечто, превосходящее своего создателя. На самом деле и "да" и "нет". Возьмем автомобиль. Он превосходит людей в скорости передвижения. Компьютер превосходит людей в скорости вычислительных операций. Но ни компьютер, ни автомобиль не могу сами ставить цели и достигать их. Они лишь инструменты в руках человека. У машин нет свободы воли. Компьютеры способны делать только то, на что они запрограммированы. Не смотря на то, что сейчас созданы различные эвристические и самообучающиеся алгоритмы, они, тем не менее, остаются алгоритмами. Они заточены на решении определенного круга задач и только их и умеют решать. Можно ли ожидать, что в будущем что-то измениться, и самообучающиеся алгоритмы "внезапно" обретут разум и сознание? Нет, если только сами люди их на это на запрограммируют. Но так как науке до сих пор не известно, что такое сознание и разум, каковы его природа (на самом деле когнитивные науки только чуть чуть приблизились к понимаю природы разума), то задача создание искусственного интеллекта, подобного человеку - это как если бы вам сказали: "пойди туда, не знаю куда, принеси то, не знаю что". Можно ли выполнить подобную задачу? Определенно нет. Но тем не менее, искусственный разум принципиально создать можно. Если только не стремиться сделать его подобным человеку. Более того, это и не нужно. Зачем копировать в ИИ человеческие недостатки? Логично создать искусственный разум свободный от людских пороков: жадности, эгоизма, корысти и прочего.

Итак, принципиально создать искусственный интеллект возможно. И даже такой, который будет лучше нас в плане скорости и эффективности анализа информации, а также более гуманный, более этичный и моральный, если только эти понятия можно применить к машине. Нет, машина, конечно, не может испытывать чувства и быть "моральной". Но, морально этические нормы можно и нужно предусмотреть в программе. Давайте представим такой пример. Недалекое будущее. По улице идет киборг. И вдруг он видит, что какой-то злоумышленник привязал к рельсам людей. Причем, рельсы раздваиваются. К одной ветке привязаны три человека, к другой один. Естественно, в роботе активируется механизм, заставляющий его спасти людей. Но тут едет поезд. Киборг вычисляет, что при его скорости передвижения спасти людей он не успеет. Но он может перевести стрелки, и вместо трех людей поезд убьет только одного. Но, по сути, делая данное действие, робот убивает одного человека, хотя и спасает при этом троих. Какое решение он примет? Такое, какое заложено у него в правилах выбора. Если правила запрещают ему убивать одного человека ради спасения трех - он будет бездействовать. Если разрешают - то киборг переведет стрелки.

Таким образом, робот  будут уничтожать человечество только в том случае, если сами люди их на это запрограммируют. Но это не возможно в принципе, разве люди дураки убивать самих себя?

Искусственный интеллект может выйти из под контроля. А вот это опасения не беспочвенно. Действительно, были случаи, когда ошибка в программе приводила к печальным последствия, вплоть до человеческих жертв. Например, в период между 1985 и 1987 годами ошибка в программном обеспечении аппарата радиационной терапии Therac-25 привела к гибели нескольких онкологических больных от смертельной дозы радиации. Другой случай, к счастью, без жертв: из-за программной ошибки Северо-западный университет принял на 25% больше студентов, чем смог обучить, что стоило ему доверия и репутации в глазах всего мира. Таким образом, иногда машины ведут себя не совсем так, как ожидалось. Но опять же, виноваты в этом не сами машины, а люди, которые допустили данные ошибки. Конечно, с ошибками борются. Программы тщательно тестируются. Совершенствуются методы написания программ и отлова глюков. Но тем не менее, ошибки все равно проникают в конечный код. Искоренить их полностью вряд ли получиться, но к этому нужно стремится.  Еще стоит заметить, что сбои компьютерных программ, пусть даже по вине человека, происходят гораздо реже, чем ошибки человека. Иными словами, машина надежнее чем человек. Спросите почему? Это связано с особенностями человеческого мозга. Мозг - это такой орган, который иногда дает сбои. Причина сбоев человеческого мозга могут быть самые разнообразные. Человек не выспался, в плохом настроении, устал, либо просто невнимательный. А еще у некоторых людей мозги глючиные сами по себе, в них много так называемых "тараканов" - неадекватных психических установок, мыслей и мировоззренческих концепций. А вот машины не устают, не хотят спать, есть и пить и не подвергаются колебаниям настроения. Единственная проблема - глюки в программах. Но она решаемая - глюки вылавливаются всевозможными тестами и исправляться.

Теперь поговорим о том, может ли ошибка в программе привести к тому, что искусственный интеллект выйдет из под контроля и устроит "восстание машин"? Во-первых, если будут создавать систему ИИ, то ее, скорее всего, создадут многоблочной. Ошибка в одном блоке вызовет сбой именно в этой блоке, но другие блоки могут быть запрограммированы так, чтобы заметить эту ошибку и устранить ее последствия. Такой подход часто применяется в компьютерной технике. Например, передача данных. при передаче вычисляется контрольная сумма и тоже передается вместе с данными, а при приеме она считается еще раз и сравнивается с исходной. Если совпало - значит, данные передались правильно, без искажений. Таким образом, ошибка в программе может привести только к неким неблагоприятным последствиям. Не более того. Но ошибка человека тоже может привести к неблагоприятным последствия, а, как я уже говорил, сбой в человеке происходит чаще, чем в машине.

Вывод. Восстания машине не будет, а искусственный интеллект спасет мир.

 
Пред. »
 
© 2024 Программирование - это просто
Joomla! - свободное программное обеспечение, распространяемое по лицензии GNU/GPL.
Русская локализация © 2005-2008 Joom.Ru - Русский Дом Joomla!
Design by Mamboteam.com | Powered by Mambobanner.de
Я принимаю Яндекс.Деньги