Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
наумов.doc
Скачиваний:
1
Добавлен:
18.07.2019
Размер:
211.46 Кб
Скачать

27 Сентября 2008 года

История развития информационных технологий

Влияли три группы факторов: первая связана с достижениями в области математики, вторая – это физика (изначально вакуумная техника,а затем физика полупроводников) и третяя – экономика (в этой сфере существует большое количество открытий прикладного характера, но они бессмысленны без спроса, которые они могут вызвать, исходя из потребностей рынка; если нет спроса, то никакая научная идея развиваться не будет). Например, в 1960е годы никто и не думал,что может понадобиться монитор, тогда вся информация выводилась на принтер.

Информационные технологии стали развиваться где-то с 30х годов. Вначале радио промышленность стала поставлять продукцию, которая позволяла управлять напряжением на радиоэлементах. Но никакой логики и алгоритмов в этих устройствах не было, чисто механика. Появилась идея, чтобы устройство,в зависимости от входной информации, «само принимало какое-либо определенное решение». Для этого понадобилась элементная база, механичекая система слишком дорогостоящая и неточная (до сих пор из такого остались, например, механические часы с заводом). Стали применять уже известные ламповые тразисторы, которые позволяли в зависимости от напряжения пропускать ток в одном или другом направлении. Дальше возникла потребность создать некую систему, которая бы позволяла представлять и работать с информацией в таких устройствах, информация должна была быть только в электро-магнитной форме. Было принято решение всю информацию представлять всего двумя уровнями напряжения – 0 и 1, и хранить всю эту информацию в конденсаторах. Почему 0 и 1? Всю систему знаний можно разделить на систему вопросов и ответов, «да или нет», истинно или ложно, эта логика и легла в основу. Логика «да/нет» достаточно ущербна, тк не всегда можно в жизни построить систему вопросов, где можно было бы универсально отвечать, да или нет. Эта идея, несмотря на то, что она гарантировала низкое количество ошибок, но надо было строить очень объёмные помещения для хранения информации. Придумали аппарат двоичных вычислений.

После того, как алгоритмы были придуманы, стали реализовывать на тех самых транзисторам вычислительные модули. Стали возникать первые компьютерные устройства, которые выполняли те или иные операции, в том числе логические. Спустя некоторое время к этой системе добавили еще хранение информации в примитивной форме (запись на магнитные ленты). Расписывались, какие действия в алгоритме надо выполнить, смотрели элементную базу,а потом вручную определялись команды,с помощью которых нужно работать. Это не позволяло вводить сложные программы. Потребность создать некие алгоритмические системы, которые управляли бы работой устройств – так возникли в 40-50х годах языки программирования. Некий инструмент, который позволял записать алгоритм, который требует от человека знание компьютера, но не требует детального знания всех процессов и элементов компьютера. В это же время прорыв физике – возможность заменить ламповый транзистор на полупроводниковый (уменьшение размера). В рамках одного небольшого объема пространства можно было расположить большое количество элементов – так появились первые микросхемы. Потребность инженерной мысли – разрабатывать «архитектуру микросхем». Вообще полупроводниковые устройства гораздо менее надежны, чем механические (например, в ракетных войсках и в США, и в РФ очень много используется ламповых транзисторов – для большей надежности).

Революционный шаг в плане массового создания вычислительных устройств. Как только был создан первй процессор, потребности в вычислениях и всеобщей механизации были очень значительны. Потребность шла из военной сферы, из банков, из статистической деятельности. При этом, инженерная мысль шла логичным путем, все микросхемы раполагались на площадках – платах, соединялись видимыми линиями проводников. В РФ, кстати, все всегда было и сейчас тоже крайне запущено. Последний процессор в СССР в Минске был произведен 486 (на Западе уже были Пентиумы) где-то в 1992 году.

Когда стало понятно, что микросхемы позволяют создавать компактные условия, это придало стимул развитию программированию. На сегодняшний день существует более 300 языков программирования. Они существуют в рамках определенной оболочки-интерпретатора. Они упростили реализацию тех или иных задач. Все языки высокого уровня создаются таким образом, что они максимально обобщают данные, получаются нерационально, тк они не различают процессоры, это не имеет для них никакой разницы, это будет замедлять работу. Сейчас всё быстродействующее. Можно развиваться экстенсивным образом – к примеру, компьютерная игрушка занимает много-много мегабайт, в 90е годы игрушки могли занимать всего несколько килобайт. Но сейчас не нужно задумываться о ресурсах и быстродейственности программ, это и есть экстенсивный образ.

Когда языки программирования позволили широкой массе инженеров работать с информацией, произощел очередной прорыв – деятельность по созданию вычислительных продуктов стала массовой. Стал возможным использовать компьютеры в самых различных областях деятельности. Наш сегодняшний рынок родом из 80х годов (все для конкретных потребителей, пользователей) – было слишком дорого, да и не предполагалось, что у такого количества людей есть потребность в наличии вычислительной машины дома, никто даже не думал, что они будут продаваться. Причем, это логично, тк вначале было действительно непонятно, зачем дома компьютер, но это быстро стало одним из главных составляющих рынка.

Вернемся в 60е. Стали создаваться условия для более комфортной работы с информацией (носители-дискеты, жёсткие диски; также интерфейсные устройства – монитор, клавиатура, принтеры). Позже, в 70х годах, когда IT индустрия уверенно встала на ноги, стала наблюдаться тенденция – основные доходы генерировала индустрия, которая производила аппаратные решения. А к середине 90х бОльшую часть доходов рынка формирует программное обеспечение. Все аппаратные унифицирующие решения уже вроде найдены, а спектр задач и запросов в отношении программного обеспечения огромен. Программное обеспечение сейчас – 70% доходов. ***Также в конце 70х IT Индустрия стала поддерживать смежную сферу – индустрию телекоммуникаций. Вся техника в принципе не очень надежна, но особо ненадежно программное обеспечение – поэтоу программы виснут,дают сбой, поэтому программное обеспечение нуждается в постоянной поддержке, разработке и универсализации. В 80х годах рынок операционных систем стал очень доходен, потом компьютерные игры, потом редакторы. Сейчас большое количество софтовых компаний занимаются тем, что разрабатывают узкие специализированные продукты, иначе никак не пробиться на рынок. У нас – переводчики, распознавание текстов, может быть еще информационная безопасность (Kaspersky). В аппаратном обеспечении мы давно уже проиграли, но в плане программного обеспечения у нас есть кадры. Две сферы развития – работа на иностранные компании или аутсорсинг (для западных продуктов создается поддержка), есть еще третья сфера – собственно свое развитие программного обеспечения, но она совсем небольшая.

Когда была создана технологическая база, и появилась массовая продукция, когда выделился специальный сегмент, стали возникать задачи у государства, у науки, которые требовали большого количества технических мощностей и ресурсов. США понимая свое выгодное географическое положение, стали создавать технические приспособления, чтобы прослушивать океан по периметру государства. Прокладывались вдоль всего континента гидролокационные системы, состоящие из антенн, позвоялющие определять движение подводных судов. Проблема – опоясать весь периметр технически невозможно, проблема, как хранить,обрабатывать и соотносить информацию. Потребность в оперативной обработке больших объёмов информации, тогда не существовало технологических решений, как объединять компьютеры в сеть. Университеты для военных задач стали разрабатывать эту сеть. Проблемы, тк стояла дилемма, гипотетически есть сеть, но какова иерархия, идеология этой сети – должны ли быть главные компьютеры, либо должно быть что-то распределенное, каждый компьютер решает свои локальные задачи. В итоге была признана разработка, которая предусматривала сеть с более-менее равноправными компьютерами, взаимодействие между которыми поддерживалось специализированным компьютерами, которые не участвуют в работе (специальные серверы), столкнулись с очень серьезной проблемой – есть канал связи, у него ограниченная способность пропуска информации, получается, что сеть сразу виснет, когда запрашивалось слишком большое количество задач. Вторая проблема – что делать, если одну сеть подключить к другой, непонятно решить задачу адресации (неизвестно, какие компьютеры входят в эту сеть). Создана сеть ARPANET – затем переросла в сеть интернет, для неё были придуманы два протокола.

****Для конкуренции с Майкрософтом созданы открытые коды – берите и пользуйтесь, но проблема в том, что эти открытые коды создавались специалистами, тк для обыденного пользователя это слишком сложно (этот открытый код сопоставим по размеру с 20томником), хотя грамотный программист может создать на основе этих кодов для себя нечто особенное и и совсем индивидуальное. Сейчас уже появляются готовые решения под эти открытые коды, но все равно экономическое господство остается 100% за Майкрософтом.

Продолжаем: в итоге эти две задачи были разрешены, к 1967 году предложено 2 протокола, которые в дальнейшем определили все дальнейшее развитие сети «интернет»: протоколы ip и TCP. Ip-протокол : каждый компьютер имеет свой собственный уникальный адрес, состоящий из четырех чисел, к примеру: 193.125.60.90 – не может одновременно существовать двух компьютеров с двумя одинаковыми ip-адресами, можно стало выделять определенным сетям определенные старшие адреса (они находится слева), которые могут наделять младшие адреса (два правых) какими-то определенными номерами (систематизировать?). было разработано специальное программное обеспечение для передачи (маршрутизации) информации. И вот, какой-то компьютер подключается к сети интернет, об этом узнает компьютер, который находится в иерархии выше итд, и через определенное время старший компьютер узнает, что в сети появился новый адрес. Крайне гибкая система – учитывает все работающие компьютеры в режиме реального времени. Это позволило создать сквозную систему адресации, стали соединять свои сети и через океаны, и система стала работать во всем мировом пространстве. Есть организации, которые определяют некие технологические правила для программного обеспечения этой системы – к примеру, IANNA, ICANN, выдавали номерные емкости ip-адресов. Когда работает интернет провайдер, количество его пользователей определяется количеством ip-адресов, чем больше адресов у провайдера, тем большее количество пользователей он себе может позволить. Сейчас существует проблема, что 232 компьютеров перестает хватать для представления всех постоянно работающих, сейчас разрабатывают стандарт ipv6, которого лет на 100 должно хватать.

Года через два придумали протокол TCP. Идея разбивки всех информационных запросов, файлов и прочего на части – пакеты – пакетная передача информации. Решено разбить любые объемы данных на определенные пакеты, каждый из которых знает тот пакет, который ушел до него и тот, который пойдет за ним. Теперь эти два протокола, объединенные в один большой – ip/TCP, определяют все сферу развития информационного пространства.

Когда это было создано и стало эксплуатироваться, возникла положительная обратная связь – преимущество работы с использованием сетей оценило огромное количество сфер и индустрий. Все министерства и ведомства в США стали реализовывать свои информационные системы в режиме сетей,а не вычислительных центров. Потом эти сети стали приобретать социальное значение, стало возникать общение между людьми, разнесенными на расстоянии. И оказалось, что это общение крайне удобно, комплиментарно для человека. Поняли, что можно продавать доступ к определенному информационному пространству. Тогда, в конце 80х стало применяться использование интернета для людей. Когда это расценили как продукт, все стало развиваться как снежный ком. Одновременно стала развиваться индустрия контента, первые российские сервера стали появляться в середине 90х (тогда отставали лет на 5, сейчас лет на 10). Отдельно стал развиваться интернет-бизнес. В вордкрафте зарегистрированных пользователей 12 миллионов, которые платят по 20-100$/ месяц плюс еще всякие артефакты. Особенность большинства сфер интернет бизнеса – главное выбрать грамотную модель (идею) и хорошую техническую площадку, а остальное всё сделают пользователи. Основной эффект идеи – кумулятивность, если идея хороша, то пользователи сами всё начинают развивать. В РФ первые интернет-кооперативы в середине 90х, а как бизнес – в конце 90х. Но даже сейчас большое количество ресурсов с большим количеством пользователей, пока что коммерческий успех, правда, невелик.

Когда в конце 80х заметили, что основую работу делают сами пользователи, начались всякие обновления. Неудобно запоминать интернет-адреса, поэтому придумали синонимическую системы доменных имен. Правила формирования: обычно состоит из нескольких имен, разделенных точками. Например: www.CNN.com. Первое – старшее доменное имя, находится справа. Ряд родовых доменных имен в США остается закрытым – к примеру .mil \ .edu \ .gov. С остальными все проще, выбираете уникальное доменное имя, платите небольшую денежку и получаете на некоторое время в пользование. Помимо родовых доменов (доменов первого рода), есть географические доменные имена. Взяли идею двухбуквенных доменов, каждой стране присваивается двухбуквенный код. Тенденции таковы, что многое пытаются выделить не для стран, а для индустрий – существует домен .biz. Соответственно, возникает большое количество доменных споров – на Западе это третейский суд. Удаленно по электронной почте специальные арбитры рассматривают доменные споры, существуют также и обычные классические судебные разбирательства. В России таких было 200-250 споров. Итак, генерируются особые правоотношения. За РФ числится еще домен .su, в 1992 году, когда Российской Федерации еще было, его на переходе веков хотели закрыть, но не закрыли.

Три модели интернета:

  • Американская модель (есть законодательство, но вмешательство минимальное, хотя немного изменилось после 11.09.2001)

  • Восточная модель (прямо противоположна американской, система прокси-серверов, которая отсекает частично поток ресурсов, идущих в Китай и поток,идущий из Китая). Такие ограничения закреплены законодательным образом, действует принцип ответственности информационных посредников за пользователей. Хозяев интернет-кафе сажают периодически лет на 15 (10-15 человек в год). В Саудовской Арабии рубят руки системным администраторам за то, что они неправильно настраивают прокси-сервера.

  • Европейская модель (законодательно установлена ответственность провайдера за те или иные действия).

Таким образом, сейчас имеем в наличии активно развивающееся информационное пространство, где большую роль играет саморегулирование, а роль государств при этом еще точно не определена (Конвенция о борьбе с киберпреступностью 2001 года и некоторые документы, но не особо применяются и действуют). США имеют опосредованное влияние на это информационное пространство, доминирование. В РФ все довольно локально, но тоже деньги попадаются немаленькие. 23 сентября 2008 года в Совете Федерации было большое экспертное разбирательство на тему того, что делать с интернет-СМИ. Непонятно, сайты – это средства массовой информации или нет, тк закон-то действует старый. Суды толкуют своеобразно, сайты признавались СМИ, даже зарегистрированные за физическими лицами, квалифицировалось как административное правонарушение, взимался штраф и (!!!) изымался домашний персональный компьютер.