Проблема искусственного интеллекта

Известным оксфордским специалистом в области прогнозирования будущего Ником Бостром было высказано убеждение , что создание искусственного интеллекта в полном смысле этого слова будет реализовано уже в первой трети нынешнего столетия. Об этом автор заявляет в своей статье «Сколько осталось до суперинтеллекта».

проблема искусственного интеллектаНа самом деле проблема искусственного интеллекта гораздо глобальней, чем может показаться на первый взгляд. Сейчас под понятием ИИ понимаются программные средства, выполняющие отдельные функции, присущие человеческому интеллекту. Однако полноценный искусственный интеллект воплотит в себе принципы неформальной логики, предсказать которую будет невозможно, также, как предусмотреть с точностью 100% результат принятия решения человеком.

При этом возможности искусственного интеллекта на порядки превзойдут человеческие: он сможет найти решение любой задаче, использовав все имеющиеся для этого возможности. В его распоряжении могут оказаться базы данных глобальной компьютерной сети, а также вычислительные мощности входящих в неё компьютеров. Используя их, искусственному интеллекту будет несложно взять под контроль робототехнику различного назначения, включая нанороботов, которые, к счастью пока не созданы. Последее обстоятельство  может быть особенно опасным, поскольку наноапокалипсисис в этом случае приобретет вполне реальные очертания. Не нужно быть пророком, чтобы понять, какая страшная сила будет сосредоточена во власти ИИ. Ведь современная промышленность, производства, транспортные сети, связь, армии мира находятся под управлением компьютерной техники.

Таким образом, в случае, если по какой-то причине в круг задач ИИ попадет уничтожение людей, то он сможет выполнить её достаточно успешно. Проблемой искусственного интеллекта будет являться отсутствие души, совести, морали, которые являются обязательным условием для принятия правильных решений, связанных с человеком. Компьютерный интеллект будет иметь другую мотивацию, это будет рационализм, который с точки зрения компьютера может являться добром, а по сути, будет представлять зло. Например, желая спасти планету от загрязнения, искусственный интеллект может принять решение избавиться от его источника – человека. Кроме того, сами создатели ИИ, имея в виду свои личные цели, могут ввести в его программу противоречие, которое развиваясь, приведет к трагедии. Пример подобной ситуации описан в фантастическом романе «Одиссея 2001 года», когда компьютер космического корабля фактически устранил весь экипаж, желая более эффективно выполнить задание, которое от самого экипажа было скрыто.

Однако пока ученые находятся в спортивном азарте и подобных сценариях стараются не думать. Проекты же, подобные «Голубой мозг» активно продвигаются к конечной цели.

Ядерная крылатая ракета Буревестник – характеристики и перспективы

Шушмор аномальная зона

Нан-Мадол

Американская нацистская партия

Тайны мозга. Если мозг отсутствует…

Тайна мозга, с которой столкнулся немецкий эксперт в данной области Хуфланд, заставила его кардинально пересмотреть все свои прежние взгляды. После трепанации ...


Запретная археология

Ученые и археологии настойчиво уверяют нас в том, что им известно все о нашем происхождении и истории. По правде говоря, ...


Пляжи Таиланда

В Тайланде вы найдете огромное количество пляжей, но мы все-таки решили выделить самые красивые пляжи Тайланда. Конечно, вы можете не согласиться ...


Японский меч

Японский меч по внешнему виду сильно напоминает российскую шашку. Основным отличием служит рукоять меча. Она у японского меча абсолютно ровная и ...


Кристалл атлантов

Атлантида, согласно описанию Платона, погибла по собственной вине, нарушив принципы добродетели. Известно, что континент ушел под воду в течение суток, ...


Загадка 6 -го чувства: видение госпожи Гурт

Этот случай произошел в 1955 году. Госпожа Гурт находилась дома и выполняла работу по кухне. И вдруг во время ...


Чудовища мира

Несси не одинока в этом мире. Сообщения об озерных чудовищах поступали с берегов более чем трехсот озер мира – от ...