Закон Мура (удвоение числа транзисторов за 18 мес) генезис вс и парадигма применения вс




Скачать 255.05 Kb.
Дата 25.08.2016
Размер 255.05 Kb.
ВТКС07. Перспективы развития вычислительных средств.

основные характеристики ВС

- закон Мура (удвоение числа транзисторов за 18 мес)

генезис ВС и парадигма применения ВС

перспективы развития традиционных средств ВС

новое представление данных в компьютере - онтологии

появление вычислительных средств на новых принципах
генезис ЧМИ - командная строка, WIMP, SILK, ИИ и ВР.

1. Пульт ЭВМ (Телефонный диск, тумблеры и индикаторы, телетайпная строка)

2. Клавиатуры универсальная (QWERTY) и позиционная и дисплей (текст).

3. Манипуляторы мыщь, световое перо и дисплеи (графический режим). Энгельбарт.

4. Многоканальные телекамеры, микрофоны и датчики движений, проекторы,

(телеконференции и виртуальная реальность).

5. 3D-дисплей. Тренажеры c частичной реальностью (авиация, космонавтика,

судоходство, учебные, военные и др.) Оборудование расширенной реальности.

Проекторы на сетчатку.
Самый мощный суперкомпьютер мира побил собственный рекорд по производительности 25.03.2005, 12:42:51

Лидер среди мировых суперкомпьютеров по быстродействию - вычислительная

установка Blue Gene/L компании IBM - установила новый мировой рекорд в этой

области, показав результат в 135,3 триллиона операций в секунду (терафлопс),

сообщает издание TechWeb.com.

Предыдущий рекорд - 70,72 терафлопс - принадлежал ей же - с ним машина

возглавила рейтинг мировых суперкомпьютеров Top500, очередные итоги которого

были подведены в минувшем ноябре. До этого в течение трех лет мировым лидером

в области суперкомпьютерных вычислений являлся суперкомпьютер Earth Simulator

с показателем 35,86 терафлопс.

Все свои рекорды Blue Gene/L поставил, находясь в недостроенном состоянии.

Его собирают в Ливерморской национальной лаборатории в Калифорнии - одном из

ведущих научных центров США. После окончательной сдачи в экслуатацию

суперкомпьютер будет обслуживать американскую Национальную администрацию

ядерной безопасности (NNSA) и проводить моделирование различных процессов на

атомном уровне и выполнять другие задачи.


http://lenta.ru/internet/2004/11/09/top500/

Самым быстрым суперкомпьютером мира официально признан Blue Gene/L

Во вторник был представлен очередной реестр самых быстрых суперкомпьютеров

мира Top500. Самым быстрым вычислительным комплексом планеты был официально

признан недостроенный суперкомпьютер компании IBM Blue Gene/L, размещающийся

в Ливерморской национальной лаборатории в Калифорнии - одном из ведущих научных

центров США.

Согласно результатам тестов, Blue Gene/L показал самую высокую

производительность - 70,72 триллиона операций в секунду (терафлопс). Этот

результат был достигнут за 4 дня до подведения итогов, до этого лидером

являлась система Columbia, построенная на базе оборудования Intel. Однако

лидером она была всего неделю, перекрыв с показателем 42,7 терафлопс японский

суперкомпьютер Earth Simulator фирмы NEC.

До этого в течение трех лет мировым лидером в этой области являлся именно Earth Simulator с показателем 35,86 терафлопс. По итогам опубликованного во вторник рейтинга (список составляется раз в полгода) Earth Simulator оказался на третьем месте с тем же показателем, Columbia стала второй, увеличив свой показатель до 51,87 терафлопс. На четвертом месте оказалась система MareNostrum, находящаяся в Барселоне и имеющая показатель 20,53 терафлопс, на пятом - система Thunder, также расположенная в Ливерморской лаборатории, с показателем 19,94 терафлопс. В предыдущем рейтинге она занимала второе место.

Как отмечается, с опубликованием нового рейтинга США вновь вышли на первое место в этой сфере после трехлетнего первенства Японии. Также отмечается, что обе возглавляющие список американские машины занимают гораздо меньшую площадь и потребляют в десятки раз меньше электроэнергии, чем японский комплекс (он занимает отдельное здание).

Российский суперкомпьютер МВС-5000М, установленный в Межведомственном суперкомпьютерном центре РАН в Москве, занял в рейтинге 210 место с показателем 1,4 терафлопс, поднявшись на эту позицию с 398 места.

+++++++++++++++++++++++++++

http://media.karelia.ru/~ftt/IVK/new2/Inflect/T_1_4.htm

К основным характеристикам ВС относятся ее эксплуатационно-технические

характеристики, такие, как

быстродействие,

емкость памяти,

точность вычислений и др.

Быстродействие ВС рассматривается в двух аспектах. С одной стороны, оно

характеризуется количеством элементарных операций, выполняемых центральным

процессором в секунду. Под элементарной операцией понимается любая простейшая

операция типа сложения, пересылки, сравнения п т. д. С другой стороны,

быстродействие существенно зависит от организации ее памяти. Время,

затрачиваемое на поиск необходимой информации в памяти, заметно сказывается на

быстродействии ЭВМ. В зависимости от области применения выпускаются ЭВМ с

быстродействием от нескольких сотен тысяч до миллиардов операций в секунду. Для

решения сложных задач возможно объединение нескольких ЭВМ в единый

вычислительный комплекс с требуемым суммарным быстродействием.

Наряду с быстродействием часто пользуются понятием производительность. Если

первое обусловлено, главным образом, используемой в ЭВМ системой элементов, то

второе связано с ее архитектурой и разновидностями решаемых задач. Даже для

одной ЭВМ такая характеристика, как быстродействие, не является величиной

постоянной. В связи с этим различают: пиковое быстродействие, определяемое

тактовой частотой процессора без учета обращения к оперативной памяти;

- номинальное быстродействие, определяемое с учетом времени обращения к

оперативной памяти;

- системное быстродействие, определяемое с учетом системных издержек на

организацию вычислительного процесса;

- эксплуатационное, определяемое с учетом характера решаемых задач

(состава операций или их <�смеси>).

Емкость, или объем, памяти определяется максимальным количеством информации,

которое можно разместить в памяти ЭВМ. Обычно емкость памяти измеряется в

байтах. Как уже отмечалось, память ЭВМ подразделяется на внутреннюю и внешнюю.

Внутренняя, или оперативная память, по своему объему у различных классов машин

различна и определяется системой адресации ЭВМ. Емкость внешней памяти из-за

блочной структуры и съемных конструкций накопителей практически неограниченна.

Точность вычислений зависит от количества разрядов, используемых для

представления одного числа. Современные ЭВМ комплектуются 32- или 64-разрядными

микропроцессорами, что вполне достаточно для обеспечения высокой точности

расчетов в самых разнообразных приложениях. Однако, если этого мало, можно

использовать удвоенную или утроенную разрядную сетку.

Система команд - это перечень команд, которые способен выполнить процессоры ВС.

Система команд устанавливает, какие конкретно операции может выполнять процессор,

сколько операндов требуется указать в команде, какой вид (формат) должна иметь

команда для ее распознания. Количество основных разновидностей команд невелико.

С их помощью ЭВМ способны выполнять операции сложения, вычитания, умножения,

деления, сравнения, записи в память, передачи числа из регистра в регистр,

преобразования из одной системы счисления в другую и т. д. При необходимости

выполняется модификация команд, учитывающая специфику вычислений. Обычно в ЭВМ

используется от десятков до сотен команд (с учетом их модификации).

На современном этапе развития вычислительной техники используются два

основных подхода при формировании системы команд процессора. С одной стороны,

это традиционный подход, связанный с разработкой процессоров с полным набором

команд, - архитектура CISC (Complete Instruction Set Computer - компьютер с

полным набором команд). С другой стороны, это реализация в ЭВМ сокращенного

набора простейших, но часто употребляемых команд, что позволяет упростить

аппаратные средства процессора и повысить его быстродействие - архитектура

RISC (Reduced Instruction Set Computer - компьютер с сокращенным набором

команд).

Стоимость ЭВМ зависит от множества факторов, в частности от быстродействия,

емкости памяти, системы команд и т. д. Большое влияние на стоимость оказывает

конкретная комплектация ЭВМ и, в первую очередь, внешние устройства, входящие

в состав машины. Наконец, стоимость программного обеспечения ощутимо влияет на

стоимость ЭВМ.

Надежность ЭВМ - это способность машины сохранять свои свойства при заданных

условиях эксплуатации в течение определенного промежутка времени.

Количественной оценкой надежности ЭВМ, содержащей элементы, отказ которых

приводит к отказу всей машины, могут служить следующие показатели:

- вероятность безотказной работы за определенное время при данных условиях

эксплуатации;

- наработка ЭВМ на отказ;

- среднее время восстановления машины и др.

Для более сложных структур типа вычислительного комплекса или системы

понятие <�отказ> не имеет смысла. В таких системах отказы отдельных элементов

приводят к некоторому снижению эффективности функционирования, а не к полной

потере работоспособности в целом.

Важное значение имеют и другие характеристики вычислительной техники,

например: универсальность, программная совместимость, вес, габариты,

энергопотребление и др. Они принимаются во внимание при оценивании конкретных

сфер применения ЭВМ.
Генезис ВС и парадигма применения ВС

Исторически первыми появились большие ЭВМ (универсальные ЭВМ общего

назначения), элементная база которых прошла путь от электронных ламп до схем

со сверхвысокой степенью интеграции. В процессе эволюционного развития больших

ЭВМ можно выделить отдельные периоды, связываемые с пятью поколениями ЭВМ.

Поколение ЭВМ определяется элементной базой (лампы, полупроводники, микросхемы

различной степени интеграции), архитектурой и вычислительными возможностями.

- сверхпроизводительные ЭВМ и системы (супер-ЭВМ); миниатюризация

- большие ЭВМ (универсальные ЭВМ общего назначения); и быстродействие

- средние ЭВМ;

- малые или мини-ЭВМ;

- микро-ЭВМ;

- персональные компьютеры;

- микропроцессоры.

- нанопроцессоры

- пикопроцессоры


С середины 60-х годов существенно изменился подход к созданию

вычислительных машин. Вместо независимой разработки аппаратуры и некоторых

средств математического обеспечения стала проектироваться система, состоящая

из совокупности аппаратных (hardware) и программных (software) средств. При

этом на первый план выдвинулась концепция их взаимодействия. Так возникло

принципиально новое понятие - архитектура ВС.

Под архитектурой ВС понимается совокупность общих принципов организации

аппаратно-программных средств и их характеристик, определяющая функциональные

возможности ВС при решении соответствующих классов задач. Архитектура ВС

охватывает широкий круг проблем, связанных с построением комплекса аппаратных

и программных средств и учитывающих множество факторов. Среди этих факторов

важнейшими являются: стоимость, сфера применения, функциональные возможности,

удобство эксплуатации, а одним из главных компонентов архитектуры являются

аппаратные средства.

Основные компоненты архитектуры ВС можно представить в виде схемы,

показанной на рис.

Архитектура ВС

|

-------------------|------------------------



| | |

Вычислительные

и логические Аппаратные Программное

возможности средства обеспечение

- Система команд - структура ВС - операционная система

- Форматы данных - принципы управления - языки программирования

- Быстродействие - организация памяти и вв - прикладное ПО.
При переходе от схем с малой и средней степенями интеграции к интегральным

микросхемам с большой и сверхбольшой степенями интеграции оказалось возможным

создание на одной БИС или СБИС функционально законченного устройства обработки

информации, выполняющего функции процессора. Такое устройство принято называть

микропроцессором. Изобретение микропроцессора привело к появлению еще одного

класса ЭВМ - микро-ЭВМ. Определяющим признаком микро-ЭВМ является наличие одного

или нескольких микропроцессоров. Создание микропроцессора не только изменило

центральную часть ЭВМ, но и привело к необходимости разработки малогабаритных

устройств ее периферийной части. Микро-ЭВМ, благодаря малым размерам, высокой

производительности, повышенной надежности и небольшой стоимости нашли широкое

pacnpocтpaнение во всех сферах народного хозяйства и оборонного комплекса. С

появлением микропроцессоров и микро-ЭВМ становится возможным создание так

называемых интеллектуальных терминалов, выполняющих сложные процедуры

предварительной обработки информации.

Успехи в развитии микропроцессоров и микро-ЭВМ привели к появлению

персональных ЭВМ (ПЭВМ), предназначенных для индивидуального обслуживания

пользователя и ориентированных на решение различных задач неспециалистами в

области вычислительной техники. Все оборудование персональной ЭВМ размещается

в пределах стола. ПЭВМ, выпускаемые в сотнях тысяч и миллионах экземпляров,

вносят коренные изменения в формы использования вычислительных средств, в

значительной степени расширяют масштабы их применения. Они широко используются

как для поддержки различных видов профессиональной деятельности (инженерной,

административной, производственной, литературной, финансовой и др.), так и в

быту, например для обучения и досуга.

Персональный компьютер позволяет эффективно выполнять научно-технические и

финансово-экономические расчеты, организовывать базы данных, подготавливать и

редактировать документы и любые другие тексты, вести делопроизводство,

обрабатывать графическую информацию и т. д. Выполнение многих из указанных

функций поддерживается многочисленными эффективными универсальными

функциональными пакетами программ.

На основе ПЭВМ создаются автоматизированные рабочие места (АРМ) для

представителей разных профессий (конструкторов, технологов, административного

аппарата и др.).
Перспективы развития вычислительных средств

Появление новых поколений ЭВМ обусловлено расширением сферы их применения,

требующей более производительной, дешевой и надежной вычислительной техники. В

настоящее время стремление к реализации новых потребительских свойств ЭВМ

стимулирует работы по созданию машин пятого и последующего поколений.

Вычислительные средства пятого поколения, кроме более высокой

производительности и надежности при более низкой стоимости, обеспечиваемых

новейшими электронными технологиями, должны удовлетворять качественно новым

функциональным требованиям:

- работать с базами знаний в различных предметных областях и организовывать на

их основе системы искусственного интеллекта;

- обеспечивать простоту применения ЭВМ путем реализации эффективных систем

ввода-вывода информации голосом, диалоговой обработки информации с

использованием естественных языков, устройств распознавания речи и изображения;

- упрощать процесс создания программных средств путем автоматизации синтеза

программ.

- В настоящее время ведутся интенсивные работы как по созданию ЭВМ пятого

поколения традиционной (неймановской) архитектуры, так и по созданию и

апробации перспективных архитектур и схемотехнических решений. На формальном и

прикладном уровнях исследуются архитектуры на основе параллельных абстрактных

вычислителей (матричные и клеточные процессоры, систолические структуры,

однородные вычислительные структуры, нейронные сети и др.) Развитие

вычислительной техники с высоким параллелизмом во многом определяется

элементной базой, степенью развития параллельного программного обеспечения и

методологией распараллеливания алгоритмов решаемых задач.

Проблема создания эффективных систем параллельного программирования,

ориентированных на высокоуровневое распараллеливание алгоритмов вычислений и

обработки данных, представляется достаточно сложной и предполагает

дифференцированный подход с учетом сложности распараллеливания и необходимости

синхронизации процессов во времени.

Наряду с развитием архитектурных и системотехнических решений ведутся работы

по совершенствованию технологий производства интегральных схем и по созданию

принципиально новых элементных баз, основанных на оптоэлектронных и оптических

принципах. В плане создания принципиально новых архитектур вычислительных

средств большое внимание уделяется проектам нейрокомпьютеров, базирующихся на

понятии нейронной сети (структуры на формальных нейронах), моделирующей

основные свойства реальных нейронов. В случае применения био- или

опто-элементов могут быть созданы соответственно биологические или оптические

нейрокомпыотеры. Многие исследователи считают, что нейрокомпьютсры в

значительной степени вытеснят современные ЭВМ, используемые для решения

трудноформализуемых задач. Последние достижения в микроэлектронике и разработка

элементной базы на основе биотехнологий дают возможность прогнозировать создание

биокомпыотеров.

Важным направлением развития вычислительных средств пятого и последующих

поколений является интеллектуализация ЭВМ, связанная с наделением ее элементами

интеллекта, интеллектуализацией интерфейса с пользователем и др. Работа в

данном направлении, затрагивая, в первую очередь, программное обеспечение,

потребует и создания ЭВМ определенной архитектуры, используемых в системах

управления базами знаний, - компьютеров баз знаний, а так же других подклассов

ЭВМ. При этом ЭВМ должна обладать способностью к обучению, производить

ассоциативную обработку информации и вести интеллектуальный диалог при

решении конкретных задач. Ряд названных вопросов реализован в перспективных

ЭВМ пятого поколения либо находится в стадии технической проработки, другие -

в стадии теоретических исследований и поисков.


Пять параллельных потоков развития

При рассмотрении процесса развития компьютерных технологий, можно выделить

пять составляющих компонент, которые следуя друг за другом образуют цикл

(спираль) развития:

Развитие аппаратной архитектуры
Изменение парадигмы Развитие ОС

(мировозрения и основной сферы применения)


Развитие прикладных средств Развитие средств разработки

На рисунке стрелками помечено "стимулирующее воздействие".

Совершенствование внутренней архитектуры вычислительных систем и

возрастание производительности процессоров стимулирует развитие операционных

систем (ОС), мощность которых оценивается главным образом в максимально полном

использовании предоставляемых ресурсов. Операционные системы являются

"промежуточным слоем" между прикладным программным обеспечением и аппаратной

частью. Расширение функциональной мощности операционных систем ведет к

расширению возможностей средств разработки и соответственно к развитию

прикладных программных продуктов. Прикладное программное обеспечение - это

конечные программные продукты с которыми работает пользователь и которые он

применяет в сфере своей деятельности. Изменение мировоззрения на компьютерные

технологии в целом определяется быстрым расширением сферы применения во всех

областях жизнедеятельности человека. Возрастание потребностей в наиболее

удобном и адекватном представлении области применения программных продуктов

требует совершенствования аппаратной архитектуры и мощности вычислительных

систем. Цикл замкнулся. Далее более подробно рассматривается история развития

каждого из потоков.


Развитие аппаратной архитектуры

Развитие аппаратной архитектуры вычислительных систем в совокупности

рассматривается на нескольких уровнях:

Уровень используемых материалов и технологий

Уровень схемной реализации узлов вычислительной системы

Уровень развития периферийного оборудования

Уровень интеграции вычислительных систем

Материалы и технологии, используемые в компьютерной технике главным образом

определяют порядок быстродействия, степень миниатюризации и себестоимость

вычислительной системы. Первые компьютеры были построены на транзисторных

лампах, имели размер сравнимый с большим помещением и стоили очень дорого.

Применение полупроводниковых материалов позволило существенно повысить порядок

производительности, уменьшить объем центрального процессора до сантиметрового

размера и снизить себестоимость компьютера в целом до уровня бытовой техники.

Существенно расширился спектр и снизилась себестоимость используемых

информационных накопителей: ленты, гибкие диски, мягкие диски, магнитооптика,

лазерные накопители. Это в свою очередь повлекло сильное удельное удешевление

хранимой единицы информации.

Схемная реализация узлов вычислительной системы определяет уровень

модульности, расширяемости и производительности. Модульность системы позволяет

осуществлять наращивание функциональных возможностей за счет добавления новых

модулей и замены старых. Общая производительность системы складывается из

производительности (пропускной способности) шины данных и производительности

каждого нагруженного узла системы. В процессе развития происходило увеличение

пропускной способности шин данных (ISA -> PCI-2, SCSI->UltraWideSCSI,IDE->EIDE,

и т.д). Одновременно с этим происходило увеличение производительности узлов за

счет применения спецпроцессоров, ориентированных на выполнение конкретной

задачи. Например современные видеоадаптеры, контроллеры жестких дисков,

некоторые сетевые платы, принтеры, имеют встроенные процессоры, выполняющие всю

основную работу узла. Применение подобной технологии позволяет существенно

снизить уровень нагрузки на основной узел системы - центральный процессор. В

тех случаях, когда этого недостаточно, применяются многопроцессорные системы,

в которых осуществляется распределение потоков выполнения задач по нескольким

процессорам.

Развитие периферийного оборудования играет значительную роль в плане сервиса,

предоставляемого вычислительной системой. Современные лазерные принтеры способны

обеспечить качество печати, сравнимое с полиграфическим. Факс - модемы

обеспечивают связь с любым абонентом или компьютерной сетью. Сканеры, звуковые

карты, CD-ROM-ы, и т.д. Список очень велик. Наблюдается постоянное расширение

спектра предлагаемого оборудования и снижение его стоимости.

Интеграция вычислительных систем осуществляется за счет применения сетевых

технологий. Изолированные "локальные" рабочие станции или вычислительные

комплексы являются замкнутой системой и постепенно заменяются "открытыми"

системами, которые принципиально являются более живучими. Использование сетей

позволяет решить целый ряд задач: наладить информационный обмен между всеми

станциями сети, осуществлять централизованный менеджмент (управление) рабочими

станциями, выполнять задачи сразу на множестве компьютеров так, как если бы они

являлись одним единым целым. Сейчас считается что сеть - это тоже компьютер,

только с распределенными ресурсами. Быстродействие такого "сетевого компьютера"

(гиперкомпьютер - метакомпьютинг) зависит от пропускной способности сети и в

течение последнего времени постоянно возрастает за счет применения новых

технологий передачи данных и увеличения производительности сетеобразующего

оборудования (сетевые адаптеры, роутеры, хабы, и т.д.).
Будущее компьютерных технологий и решений http://www.x-medicine.com/ru/pr02.htm

Подводя итоги можно сказать, что основной тенденцией развития компьютерных

технологий является глобальная сетевая интеграция на основе Internet. У этого

простого вывода существует несколько "фантастических" следствий:

1. Применение Internet в качестве глобального сервера приложений.

Java - приложения могут запускаться либо при помощи "загрузчиков" прямо из Сети,

либо при помощи навигаторов Internet (Java - апплеты).

2. Изменение концепций разработки программного обеспечения.

Разрабатывемое Internet - приложение по своей природе является сетевым

(многопользовательским) и способным работать на любой аппаратной платформе. В

качестве канала информационных ресурсов такого приложения используется не

локальный компьютер, а вся доступная Сеть.

3. Распространение области применения Internet - приложений на бытовую и

профессиональную технику.

Подключение цифровой техники и различных устройств (телевизоры,

видеомагнитофоны, музыкальные центры и др.) к Сети, позволит осуществлять

программное управление, тестирование и настройку техники. Это будет возможно

после введения нового протокола IPng (Internet Protocol next generation),

оперирующего 128-битными адресами. Это даст что-то около миллиарда адресов

на каждый квадратный ярд поверхности земли.

4. Применение Internet в качестве основного канала дистрибуции программного

обеспечения.

Относительно пользователя, программное обеспечение, находящееся в Internet,

обновляет само себя. Т.е. пользователь постоянно работает с последней версией

программных пакетов.

5. Изменение механизма и каналов платежей за использование программного

обеспечения.

При использовании Internet в качестве сервера приложений, покупка программного

обеспечения заменяется (или дополняется) его арендой. Это может явиться настоящей

революцией экономики мира информационного бизнеса. Класс "rent-an-app" арендных

приложений оптимизированный для работы в Сети позволяет существенно снизить

затраты пользователя, так как не требует постоянного увеличения дискового

пространства для своей работы и постоянной модернизации компьютера. Подобно

счетчикам такси такие приложения будут сообщать время и стоимость сессии после

окончания работы. Механизм проведения платежей через Internet позволяет

автоматически осуществлять расчеты за покупку или услуги с кредитной карточки.

История не стоит на месте. То, что вчера представлялось из области

фантастики, сегодня является реальностью происходящего. Internet постепенно

становится полноценным самостоятельным "параллельным миром", который во многом

может изменить и расширить наши возможности.


пути к сингулярности

http://www.membrana.ru/articles/readers/2003/09/19/201400.html

Экспоненциальный рост достижений в области высоких технологий, таких как

микроэлектроника, кибернетика, бионика и робототехника даёт основание полагать,

что мир в своём технологическом развитии движется к определённой эволюционной

асимптоте, некоторой точке на оси времени, при приближении к которой ряд

ключевых показателей прогресса стремится к бесконечности.

Эта прогнозируемая точка эволюции называется точкой сингулярности и

связывается главным образом с развитием нано-, био-, инфо- и когнитивных

технологий. Будут ли темпы роста достижений в зоне близкой к сингулярности и

дальше соответствовать проявляющимся сейчас эмпирическим законам развития или

в какой-то момент наступит резкий перелом и произойдёт переход эволюции разума

на новую ступень?

"взрыв" сингулярности и последующий эволюционный скачок при определённых

обстоятельствах могут произойти на достаточно коротком отрезке времени.

На складывающуюся ситуацию будет оказывать влияние множество факторов и в

зависимости от обстоятельств "конец света" станет либо просто несостоятельной

метафорой, либо в какой-то мере пророческой явью. В пресловутый "судный день"

степень тяжести приговора Homo Sapiens "в зале суда" будет зависеть от успеха

или неудачи программно-технической реализации джинна автономного интеллекта,

выпущенного из "бутылки" на свободу его разработчиками. И главную роль сыграет

степень дружественности интерфейса более совершенного интеллекта к своему менее

смышлёному примитивному прародителю. Автономное ядро интеллекта станет

руководствоваться всеми теми правилами поведения, хорошими или плохими,

рациональными или иррациональными, которые в него вложат его создатели. Будет

ли этот грядущий день на пути к сингулярности "роковым" или, наоборот,

"счастливым" для людей? Если не пытаться предугадать ход событий и не влиять на

них теперь, то потом решать что-либо будет, наверное, слишком поздно.
Неизбежность сингулярности

Сингулярность - предопределённая точка в будущем, когда эволюция человеческого

разума в результате развития нанотехнологии, биотехнологии и искусственного

интеллекта (NBIC) ускорится до такой степени, что дальнейшие изменения приведут

к возникновению разума с гораздо более высоким уровнем быстродействия и новым

качеством мышления. С позиций кибернетического подхода к эволюции по В. Турчину

подобный период можно охарактеризовать как метасистемный переход или переход от

локально распределённого сознания к сетевому интегрированному сверхразуму.

Действительность такова, что по мнению специалистов в области искусственного

интеллекта (ИИ) и разработчиков автономного интеллекта (АИ), включая многих

известных философов и футурологов, человечество в настоящее время вплотную

подошло к трансгуманоидному периоду своего развития и приближается к

технологической сингулярности. Что это значит? Термин сингулярность заимствован

у астрофизиков, которые используют его при описании космических черных дыр.

Математически сингулярность соответствует точке функции, значение в которой

стремится к бесконечности, как, к примеру, 1/X при X стремящемся к нулю.

В том смысле, в каком термин "сингулярность" впервые использовал Вернон Винджи,

а вслед за ним и Рэй Курцвайль, он является синонимом концепции, в которой

дальнейшее ускорение технологических изменений неизбежно приведёт к

возникновению машинного разума превосходящего человеческий.

Более того, процесс на этом не остановится. Полнофункциональное слияние

человеческого и машинного интеллекта произойдёт по средневзвешенным оценкам

экспертов где-то к 2030-му году. Дальнейшее развитие постгуманоидного разума за

порогом сингулярности, то есть по другую сторону "горизонта событий", обещают

быть ещё более стремительными и его перспективы пока трудно предсказуемы.

Вот те основные технологии, которые приведут нас к технологической

сингулярности:

- компьютерное программное обеспечение с генетическими алгоритмами;

- искусственные наноботы и микрокибы, созданные путём эволюции

микрокомпьютерных систем;

-интеграция нервной системы человека с аппаратной частью компьютеров;

- объединение сознания человека и компьютера в едином пользовательском

интерфейсе;

-динамически организованные компьютерные сети.

Как поясняет Рэй Курцвайль, "технологическая эволюция является продолжением

биологической эволюции, поэтому приближение сингулярности вызвано действием

нескольких объективных законов, одним из которых является известный закон Мура

об удвоении плотности транзисторов в микропроцессорах каждые 18 месяцев".

Согласно закону Мура компьютеры начнут превосходить по своей мощности

человеческий мозг в первом десятилетии 21 века. Программное обеспечение,

которое будет полностью имитировать человеческое мышление - ИИ, скорее всего,

появится в следующем десятилетии.


Иллюстрация закона Мура.

Сторонники ускорения изменений в направлении сингулярности полагают, что это

произойдёт где-то в период между 2005 и 2015 годом. Их оптимизм достаточно

обоснован. В последнее время в области разработки теоретических основ и

программно технических средств функционирования АИ достигнуты значительные

успехи. Сделан прорыв в направлении создания программного обеспечения

дружественного АИ, настраиваемого на благосклонное взаимодействие со своим

предком - человеком.

--------------------------------------------------------- 100 000 000

Pentium 4 *

Pentium III *
Pentium II * 10 000 000
Pentium *
486 * 1 000 000
386 *
288 * 100 000

8086 *
10 000

8080 *
8008 *

* 4004


--|-------|--------|---------|---------|--------|--------| 1000

1970 1975 1980 1985 1990 1995 2000


Однако среди футурологов есть и не столь радужные оптимисты, такие, например,

как Маршалл Брейн, который в своём эссе "Нация роботов" предрекает, что "К 2055

году роботы будут повсюду. Переворот этот будет очень быстрым. В том же 2055 году

нацию ожидает знаменательная веха - более половины американской рабочей силы

окажется без работы, и безработица будет постоянно расти".

В этой связи всё громче раздаются голоса противников технологической

сингулярности и требования запретить работы в области нанотехнологий и АИ как

со стороны озабоченных антитехнократов, так и со стороны религиозных деятелей.

Действительно, существует гипотетическая опасность выхода самовоспроизводящихся

нанороботов из-под контроля. Тогда всё живое на Земле будет разобрано на

молекулы, а наноботы станут бесконечно копироваться и толстый слой "серой

слизи"(Gray Goo) покроет всю Землю.

Страх подобной перспективы побудил Билла Джоя (Bill Joy), одного из авторов

универсального языка программирования Java и теперь уже главного научного

специалиста фирмы Sun, призвать на страницах журнала Wired к сворачиванию

исследований в области нанотехнологий. Он предупреждает: "Мы можем стать

последним поколением людей на Земле". С другой стороны, остановить нарастание

технологических достижений наноинженерии теперь уже невозможно. Пришлось бы

отменить капитализм, чтобы пресечь модернизацию промышленности. На исследования

в данной области ежегодно тратятся миллиарды долларов и результаты всё шире

используются в промышленности.

Так, даже при выпуске последних поколений микропроцессоров Athlon и Pentium

применяются специальные нанопорошки для полировки поверхности кремниевых

кристаллов. А в лабораториях фирмы IBM полным ходом идут работы по объединению

нанотехнологий с квантовыми вычислениями для создания новых поколений

сверхбыстродействующих компьютеров. Идут испытания наноустройств активизации и

подавления активности нейронов в результате которых практически обеспечивается

возможность многофункционального воздействия наноботов непосредственно на

работу отдельных нейронов головного мозга. Это открывает множество перспектив,

позволяющих:

- резко ускорить работу человеческого мозга в миллионы раз за счет приёма и

передачи сигналов от нейронов наноботами, выполняющими предобработку

информации в локальной сети непосредственно внутри тела человека;

- объединять группы людей в нейросети по профессиональным интересам на уровне

интеграции их мозговой активности;

- подключать сознание напрямую к компьютеру, банку данных, глобальной базе

знаний и, в том числе, к чужому мозгу; реализовать процесс коллективного

мышления;

- дополнить, а со временем и заменить телефонную связь нейротелепатической

связью с любым человеком; решать совместно с суперкомпьютерами вычислительные

задачи гигантской сложности;

- иметь согласованный полнофункциональный доступ к индивидуальной системе

чувственного восприятия и уметь управлять любым организмом биогенного или

искусственного происхождения;

- получить возможность конвейерного сканирования или матричной загрузки в

подсознание и сознание всей гаммы ощущений миллиардов пользователей,

подключённых к глобальной наносети; ощутить слияние с природой при включении

в систему сенсорики животного мира;

- генерировать искусственные, псевдореальные миры неотличимого от реальности

качества; открыть новый этап в развитии виртуальной и аугментальной реальности

(расширенной с помощью цифрового моделирования), медицины, спорта, образования,

кино, развлечений и так далее.

- создать полностью автономный искусственный интеллект, дружественный человеку

и способный самоидентифицироваться в окружающем мире, анализировать свой

собственный код, саморазвиваться и самореплицироваться;

- обеспечить возможность переноса сознания на другие материальные носители

путём наносканирования мозга; добиться биологического, а затем и техногенного

бессмертия личности, способности конвергенции с групповым разумом.

От таких нововведений у кого-то голова пойдёт кругом, а кто-то не в силах

будет преодолеть страх перемен и изменить своё отношение к трансгуманизму. Если

на подступах к первой волне сингулярности понадобится лишь умение легко

адаптироваться к экзотическим новшествам, то в дальнейшем, вслед за более

глубокой фазой трансформации, способность отличать экзоиллюзии от реалий станет

одной из жизненных необходимостей. В более отдаленной перспективе принцип

коммунизма "от каждого - по способности, каждому - по потребности",

соответствующий чаяниям пролетариев вчерашнего дня, будет заменен более

универсальным принципом трансгуманизма: "от каждого - по способности,

каждому - всё".

все ведет к тому, что темп человеческой жизни (и вообще всего производимого

человеком) будет расти. Короче цикл выпуска продуктов, раньше наступление

старости, ранняя смерть и т.д. При всем этом затраты энергии будут также расти

экспоненциально. Где-то здесь есть интересная статья с идеей, что вся

"самоорганизация" материи и все сложные системы служат негэнтропийными

катализаторами. То есть сложные системы появляются сами в месте где есть резкие

перепады энергии. Если энтропия Вселенной асимптотически стремится к

максимальному значению, то соответственно системы стремятся к пику сложности,

при котором идет максимальный рост негэнтропии, сохраняющий баланс.

www.club2015.ru/


йотта, зета, экса, пета, тера, гига, мега, кило, гекто, дека,

10^24 10^21 10^18 10^15 10^12 10^9 10^6 10^3 10^2 10^1

квадриллион

квинтиллион

деци, санти, милли, микро, нано, пико, фемто, атто, зепто

10^-1 10^-2 10^-3 10^-6 10^-9 10^-12 10^-15 10^-18 10^-21

Первые приставки были введены в 1793-1795гг. при узаконении во Франции

метрической системы мер. Было принято для кратных единиц наименования приставок

брать из греческого языка, для дольных - из латинского. В те годы были приняты

следующие приставки: кило... (от греч. chilioi - тысяча), гекто... (от греч.

hekaton - сто), дека... (от греч. deka - десять), деци... (от лат. decem -

десять), санти... (от лат. centum - сто), милли... (от лат. mille - тысяча).

В последующие годы число кратных и дольных единиц увеличилось; наименования

приставок для их обозначения заимствовались иногда и из других языков.

Появились следующие приставки: мега... (от греч. megas - большой), гига...

(от греч. gigas, gigantos - великан), тера... (от греч. teras, teratos -

огромный, чудовище), микро... (от греч. mikros - малый, маленький),

нано... (от греч. nanos - карлик), пико... (от итал. piccolo - небольшой,

мелкий), фемто... (от датск. femten - пятнадцать), атто... (от датск. atten

- восемнадцать). Последние две приставки пета... и экса... - были приняты в



1975г.: "пета"... (от греч. peta - пять, что соответсвует пяти разрядам по

10^3), "экса"... (от греч. hex - шесть, что соответсвует шести разрядам по 10^3).


База данных защищена авторским правом ©infoeto.ru 2022
обратиться к администрации
Как написать курсовую работу | Как написать хороший реферат
    Главная страница