Войти
Android, Windows, Apple, Ликбез. Социальные сети. Драйверы
  • Японские телефоны Новый японский смартфон
  • Lenovo G500S: характеристики, основные особенности
  • Определяем серию продукта видеокарт Nvidia Характеристики карты nvidia 9800 gt
  • А конкуренты у смартфона есть
  • Что такое расширение файла TRZ?
  • Не работает динамик в "айфоне"
  • Разработка к учебнику информатики &7 хранение информации. Модель передачи информации К

    Разработка к учебнику информатики &7 хранение информации. Модель передачи информации К

    ОСНОВНЫЕ ПРИНЦИПЫ НАНОТЕХНОЛОГИИ.

    ЛЕКЦИЯ 3

    В самом конце ХХ века достижения науки и высоких технологий убедительно продемонстрировали, какие громадные возможности сулит использование специфических явлений и свойств вещества в нанометровом диапазоне размеров. Упорядочение и самоупорядочение атомов и молекул на нанометровых расстояниях, как это делает живая природа в биологических объектах, в промышленных изделиях может привести к поразительным результатам.

    Слова с приставкой «нано-»: наномир, нанонаука, нанотехнология, нанотехника, наноматериалы и т.п. стремительно вошли в лексикон не только специалистов различного профиля, но и журналистов, администраторов, политиков. Очевидно это обусловлено взрывообразным развитием «нано-» сферы деятельности и громадным значением ее для настоящего и будущего. В промышленно развитых странах Запада нанобум начался в самом конце прошлого столетия. По всем признакам мир вступает в эпоху тотальной нанореволюции, способной затмить своими результатами последствия компьютерной революции конца 20 века.

    Ключевые материалы и технологии всегда играли большую роль в истории цивилизации, определяя не только уровень развития производительных сил, но и во многом – социальный прогресс в обществе. Достаточно вспомнить, как сильно отличались каменная и бронзовая эпоха, век пара и электричества, атомной энергии и информационных технологий.

    Большинство экспертов в области стратегического планирования, научно–технической политики, инвестирования уверены, что в ближайшее десятилетие нас ждет нанореволюция во всех областях науки, производства, национальной безопасности, медицины, быта, отдыха и развлечений. Причем ее последствия будут обширнее и глубже, чем компьютерной революции последней трети 20 века. Под этим понимают широкомасштабное и системное вторжение наноструктурированных материалов, изделий и способов их получения буквально во все сферы жизни. Поэтому многие развитые и развивающиеся страны имеют в качестве приоритетных программы развития нанотехнологий .

    Английский термин Nanotechnology был предложен японским профессором Норио Танигучи в средине 70-х годов прошлого века и использован в докладе «Об основных принципах нанотехнологии» (On the Basic Concept of Nanotechnology) на международной конференции в 1974 г., т.е. задолго до начала масштабных работ в этой области. По своему смыслу он заметно шире буквального русского перевода «нанотехнология», поскольку подразумевает большую совокупность знаний, подходов, приемов, конкретных процедур и их материализованные результаты – нанопродукцию.

    Как следует из названия, номинально наномир представлен объектами и структурами, характерные размеры R которых измеряются нанометрами (1нм = 10 -9 м = 10 -6 мм = 10 -3 мкм). Сама десятичная приставка «нано - » происходит от греческого слова nαnοσ – «карлик» и означает одну миллиардную часть чего–либо. Реально наиболее ярко специфика нанообъектов проявляется в области характерных размеров R от атомных (~ 0,1 нм) до нескольких десятков нм. В ней все свойства материалов и изделий (физико–механические, тепловые, электрические, магнитные, оптические, химические, каталитические и др.) могут радикально отличаться от макроскопических. Главные причины специфичного поведения и особых свойств нанообъектов мы рассмотрим позднее.


    Нанообъекты и наноструктуры могут быть синтезированы искусственно или найдены в готовом виде и отобраны из природных объектов (главным образом, биологических). Отнесение того или иного объекта к наномасштабным весьма условно. Нанообласти в структурной иерархии можно выделить практически в любом объемном, пленочном или волокнистом объекте (примесные кластеры, границы зерен, ядра дислокаций и т.п. в кристаллах; области упорядочения молекул в полимерах; глобулярные белки, мембраны и мицеллы в биоматериалах и т.д.). В качестве разумного критерия принадлежности объекта к наноструктурированным очевидно можно принять высокую степень влияния на обсуждаемые свойства именно наноразмерных элементов его реальной структуры. При этом вполне может оказаться, что один и тот же материал для некоторых свойств и приложений будет демонстрировать явную «нано»- специфику, а для других – казаться однородным.

    Таким образом, очертить строго границы наномира не так просто. В литературе имеются десятки (если не сотни) определений предмета ведения нанонауки и нанотехники. Это говорит о том, что они переживают период становления и бурного развития. Так, на вопрос «Как бы Вы определили, что такое нанотехнология?» около 100 экспертов дали следующие ответы:

    · Технология, которая имеет дело с элементами не больше 100 нм – 45%

    · Технология, которая имеет дело с субмикронными элементами - 17%

    · Технология, которая использует новые законы физики - 5%

    · Технология, которая оперирует материей на уровне отдельных атомов и молекул - 23%

    · Другие ответы - 10%

    Обобщая мнение большинства специалистов, нанонауку можно определить как совокупность знаний о структуре и особенностях поведения вещества в нанометровом масштабе размеров, а нанотехнологию и нанотехнику – как искусство создавать и использовать объекты и структуры с характерными размерами в диапазоне от атомарных до ~100 нм (хотя бы в одном из трех измерений).

    Такое определение фактически утверждает, что «нановладения» занимают промежуточную область между миром отдельных атомов, управляемым квантовой механикой, и макромиром, хорошо описываемым в рамках различных континуальных теорий (упругости, гидродинамики, электродинамики и т.п.).

    Место нанообъектов и наноструктур в шкале характерных размеров и времен оперирования показано на рис 1. Из общих соображений и простых оценок вытекает, что с уменьшением R механическая и электрическая инерционность любого устройства падает, а его быстродействие – растет, что является одним из многочисленных достоинств нанотехники.

    Рис. 1. Место наноструктурированных объектов в пространственно-временной плоскости характерных параметров.

    Основные направления развития нанонауки и нанотехники показаны на рис. 2. Их фундаментальным базисом является физика, химия и молекулярная биология. Большую роль играет компьютерное моделирование наноструктур на основе квантовомеханических закономерностей поведения объектов, состоящих из счетного числа атомов или молекул.

    Классификация нанопродукции, учитывающая ее иерархическую сложность, представлена на рис. 3. Самый обширный класс – наноматериалы и отдельные нанообъекты, следующий – наноизделия, состоящие из многих элементов или требующие специальной обработки материалов. Зачастую нанотехнологии позволяют создавать готовые изделия, содержащие миллионы элементов, минуя стадию производства материалов, отдельных деталей, их последующей обработки и сборки (пунктирная стрелка). Особенно большое распространение такие технологии получили в микроэлектронике.

    Рис. 2. Фундаментальные основы области применения нанонауки и нанотехнологии.

    Более сложными в устройстве и производстве являются гибридные системы, где сочетаются, например, микро-/наномеханические узлы и

    Рис. 3. Структура нанотехники с точки зрения ее иерархической сложности.

    электроника (микро-/наноэлектромеханические системы – МЭМС/НЭМС); микрогидравлика, микромеханика и электроника (микрохимические лаборатории на одном чипе); оптика, микромеханика и электроника; биоэлектроника и биомеханика и т.п. Однако и для таких случаев разрабатываются нанотехнологии, позволяющие получать готовый продукт без промежуточных переходов (показано пунктирной стрелкой). Наконец, на вершине структурной пирамиды стоят интеллектуальные роботы, многокомпонентные системы, имеющие в своем составе сенсорные узлы, процессорную часть, исполнительные органы, движители и т.п.

    С технико–экономической точки зрения основные побудительные мотивы развития нанотехнологий состоят в том, что с их помощью возможно:

    · радикально изменять свойства традиционных материалов, не меняя их химического состава;

    · создавать принципиально новые классы материалов;

    · использовать квантовые эффекты;

    · уменьшать размеры изделий вплоть до атомарных с сохранением заданных функций или придания совершенно новых (одноэлектроника, спинтроника);

    · эффективно использовать синтетические или существующие в природе наноструктуры (главным образом, биологические);

    · ставить и решать задачи, совершенно невозможные в рамках традиционных технологий;

    · снижать материалоемкость, энергоемкость, трудоемкость и стоимость продукции, одновременно резко уменьшая загрязнение окружающей среды отходами производства.

    Современную историю «нано»- парадигмы принято вести от знаменитого доклада-лекции Нобелевского лауреата по физике Ричарда Фейнмана «Внизу полным-полно места: приглашение шагнуть в новую область физики», сделанном в 1959 г. на заседании Американского физического общества. В ней обращалось внимание на специфику нанообъектов и наноструктур; на то, что законы физики принципиально не препятствуют получению изделий методом поатомной (или помолекулярной) сборки, а скорее даже провоцируют и помогают этому; обсуждались возможные направления развития и практические приложения «нанонауки».

    Однако до реальных технологий такого рода в 60-е годы прошлого века было еще очень далеко. Вплоть до середины 80-х годов нанонаука развивалась очагово и спонтанно, не осознавая себя масштабной междисциплинарной сферой деятельности, но периодически совершая важные открытия. Многие дисциплины и отрасли имели небольшой участок, в котором предметом изучения были нанообъекты и наноструктуры: в физике и неорганической химии – нанокластеры и наночастицы, в органической химии - полимеры искусственного и естественного происхождения и их надмолекулярные наноструктуры, в биохимии – белки, ферменты, клеточные мембраны, мицеллы и везикулы, в молекулярной биологии – ДНК и т.д.

    В материаловедении большой резонанс вызвали работы по разработке достаточно простого и эффективног способа создания наноструктурированных материалов путем компактирования предварительно полученных нанопорошков.

    В 1986 г. сотрудник Массачусетского технологического института (Бостон, США) Э.Дрекслер выпустил книгу «Машины созидания - пришествие эры нанотехнологии», в которой развил некоторые идеи Р.Фейнмана. Дрекслер мысленно конструировал аналоги макроскопических устройств, используя в качестве «строительного материала» наноэлементы, включая отдельные атомы и молекулы. К середине девяностых годов отдельные наноостровки стали разрастаться и смыкаться, так что стало очевидным – мир стоит на пороге новой научно-технической революции, которая меняет принципы и парадигмы всей производственной деятельности.

    Современное производство техногенной продукции очень неэффективно по сравнению с природными процессами как с точки зрения доли полезно используемой массы первичного сырья, так и затрат энергии. В конечный потребительский продукт превращается в среднем около 1,5% массы добываемого сырья, а доля полезно используемой энергии (если принимать во внимание минимально теоретически необходимую энергию для химических, структурных превращений, формоизменения и реально затрачиваемую на добычу, переработку сырья, металлургическую, химическую, машинную обработку) и того меньше. Природа при построении куда более сложных биологических систем действует неизмеримо более экономно. Она широко использует безотходную сборку и самосборку очень сложных систем из простых молекул, селективный катализ определенных процессов при низких температурах, замыкает «производственные» потоки и цепи, в которых отходы одного цикла становятся исходным сырьем для другого и т.д.

    В последнее десятилетие появилась возможность реально идти по этому пути и создавать промышленные нанотехнологии. В пределе это выливается в новый подход ко всему, что делает современная промышленность: вместо традиционной обработки «сверху - вниз» (т.е. получения деталей или готовых изделий из более крупных заготовок путем отделения ненужных частей) сборка или самосборка (self – assembly) «снизу – вверх» , т.е. безотходный молекулярный дизайн изделий из элементарных «кирпичиков» природы – атомов и молекул. Разумеется, это всего лишь яркие образы, обозначающие наиболее характерные подходы к массовым технологиям. Реально и в каменном веке человек собирал топор из нескольких деталей, а не вытесывал его из одного куска материала; и в эпоху нанотехнологий будут производиться материалы, полуфабрикаты и какая-то часть готовых изделий из более крупных заготовок, чем конечный продукт. Т.е. новая технологическая парадигма «снизу – вверх» будет конкурировать, дополнять и стимулировать развитие старой - «сверху – вниз».

    Структура самих атомов управляется числом нуклонов в ядре и законами квантовой механики. Она не может быть изменена произвольно, по нашему желанию. То есть атомы - это, минимально возможные порции вещества, которые можно использовать в целях создания долговременно существующих конструкций путем сборки изделий из них как из естественных строительных модулей. Причем, эти модули, в отличие от партии деталей, изготовленных на самых точных станках, абсолютно идентичны, т.е. не имеют никаких индивидуальных особенностей (разумеется, имеются в виду атомы одного сорта). То же самое можно отнести и к простейшим молекулам. Вместе с тем свойства малоатомных кластеров (или небольших ассоциатов молекул) сильно зависят от числа составляющих их структурных единиц N . Варьируя контролируемым образом N можно обеспечить заданные характеристики изделия простым прибавлением или отбором одинаковых частиц. Именно к этому и стремится в пределе нанотехнология.

    Есть еще одно важное соображение в пользу нанопродуктов и нанотехнологий. На заре цивилизации люди создавали орудия труда, средства транспорта, предметы быта с характерными размерами, сопоставимыми со своими собственными (R ~ 1 м). Другие и не были нужны тогда. Однако многие задачи сегодня не требуют таких больших устройств (например, определение температуры, давления, освещенности, химического состава вещества, сбор и хранение информации, различные расчеты, разведка и спецоперации, микрохирургия, исследования космоса и т.п.). Более того, чем меньше размеры подобных устройств, тем они более функциональны и экономичны. Впервые это было осознано при создании электроники и вычислительной техники во второй половине 20 века. Началась бурная миниатюризация отдельных компонентов, микросхем и целых процессорных систем. Вот тогда и появилась реальная почва для идей предельно уменьшать размеры всего, чем человек оперирует для достижения своих целей, вплоть до атомно-молекулярных. Естественными строительными модулями в этих случаях могут выступать отдельные атомы и молекулы, а наиболее эффективными технологическими процессами – самосборка и самоорганизация отдельных элементов. Тем более что перед глазами всегда имеется весьма убедительный пример – очень сложный функционально и структурно организованный биологический мир, который природа конструирует именно таким способом, собирая каждый организм из отдельных атомов и молекул.

    Успехи, достигнутые на путях микроминиатюризации электроники, весьма впечатляющи: на протяжении почти полувека выполняется закон Мура – каждые 1,5 – 2 года количество отдельных элементов (в частности, транзисторов) на чипе удваивается, а характерный размер структуры R соответственно падает (рис. 4). В результате в современной микросхеме число элементов сопоставимо с числом жителей Земли (~ 6´10 9 человек), только размещены они не на поверхности земного шара, а на площади ~ 1см 2 .

    Рис. 4. Динамика развития микроэлектроники (закон Мура).

    С еще большей скоростью растет плотность магнитной записи на жестких дисках (на 60-100% в год). Весьма существенно, что одновременно с уменьшением размеров падает и стоимость единичного элемента структуры. В результате и по этому показателю продукты высоких технологий вошли в «нано»-ценовую область. До принципиально достижимых физических пределов пока еще очень далеко, и имеется громадный резерв для дальнейшего уменьшения R (от освоенных в настоящее время серийным производством R ~ 100 нм – вплоть до атомных, ~ 0,1 нм) и снижения себестоимости различных продуктов с одновременным ростом их функциональных возможностей. В этой связи интересно вспомнить высказывание Б. Гейтса – основателя компании Microsoft и знаковой фигуры в мире информационных технологий, которое он сделал в 1981 г.: «да 640 кБ оперативной памяти хватит кому угодно» . Уже через несколько лет оно стало курьезным, поскольку достигнутые параметры DRAM на порядок превысили упомянутую цифру и продолжали расти теми же гигантскими темпами. Это говорит о том, что в условиях бурного развития высоких технологий даже выдающимся специалистам подчас трудно спрогнозировать, во что это выльется в ближайшем будущем.

    Необходимо различать размеры и размерность объектов наномира. Вполне достаточно иметь малое значение R только в одном измерении, чтобы возникла «нано - » специфика поведения вещества. К таким объектам относятся тонкие приповерхностные слои однородного материала, пленки и покрытия различного назначения, многослойные гетероструктуры. Их квазидвумерность дает возможность изменить свойства электронного газа, характеристики электронных переходов и т.д., что создает основу для разработки принципиально новой элементной базы наноэлектроники и оптоэлектроники следующего поколения. Они часто используются в качестве антифрикционных, износостойких, антикоррозионных покрытий, чувствительных элементов сенсорики и др. Большую роль приповерхностные структуры и состояния играют в нанопористых и нанокомпозитных материалах. Первые используются в молекулярных фильтрах и ситах, адсорбентах, аккумуляторах газообразного топлива, катализаторах, вторые – в качестве высокопрочных конструкционных материалов, сред для высокоплотной записи и хранения информации, лазерных и светочувствительных элементов.

    Если объект имеет наноразмеры в двух измерениях, а в третьем – макроскопический, то его классифицируют как квазиодномерный. К таковым относятся нанопроволоки, напыленные на диэлектрическую подложку, нановолокна, одностенные и многостенные нанотрубки, органические макромолекулы, двойные спирали ДНК и др.

    Наконец, если все три размера частицы лежат в нанометровом диапазоне, она считается нуль–мерной (в макроскопическом смысле). С точки зрения электронных свойств она является «квантовой точкой», т.е. объектом, в котором длина волны де Бройля больше всех его размеров. Квантовые точки используют в лазеростроении, оптоэлектронике, фотонике, сенсорике и других приложениях.

    Итак, зависимость свойств материалов от R можно разбить на две области: малочувствительную к размерам образца – «макроскопическую» и высокочувствительную, в которой изменения характеристик вещества могут быть очень сильными и носить осциллирующий характер, иметь экстремум или насыщение на уровне, значительно отличающемся от макроскопического. Между ними находится промежуточная, мезоскопическая область структур и свойств. В области R ≤ 10 нм размерные эффекты становятся такими большими, что специалисты, склонные к метафоричности суждений, говорят о необходимости введения «третьей координаты» в периодической таблице Менделеева, имея в виду сильную зависимость физико – химических характеристик малоатомного кластера от числа одних и тех же атомов в нем. Важнейшими причинами этих особенностей являются следующие: проявление квантовых закономерностей и атомно–молекулярной дискретности в наноразмерных частицах, состоящих из счетного количества атомов; высокая доля приповерхностных атомов, которые обладают отличающимися физико – химическими свойствами от объемных, по отношению к полному их числу в частице или зерне; измененный электронный и фононный спектр в наночастицах и малоатомных кластерах; большая роль диффузии, атомных перестроек и самоорганизации атомов в наноструктурах и на поверхности твердых тел; специфические условия для зарождения новых фаз и фазовых переходов, образования дислокационных петель, двойников и т.п.; радикальные отличия свойств низкоразмерных (нульмерных, одномерных, двумерных, фрактальных) структур от объемных трехмерных и др.

    Нанопродукция имеет множество очевидных и скрытых достоинств. К первым, помимо упомянутых выше, можно отнести крайне низкую материалоемкость и энергоемкость производства в расчете на одно готовое изделие, снижение сырьевой зависимости и транспортных расходов, экологическую чистоту нанотехнологий. С уменьшением размеров понижается механическая и электрическая инерционность устройств, что обеспечивает достижение рекордно высокого быстродействия электронных и электромеханических компонентов и приборов. Интегрированные наносистемы (например, микро- и нанороботы) можно будет вводить в организм человека через естественные каналы, кровеносную и лимфатическую систему и доставлять практически в любую точку с диагностическими, терапевтическими и хирургическими целями; с минимальными затратами их можно запускать в космос, использовать в беспилотной авиации, разведывательных и оборонных задачах.

    Пришествие эры нанотехнологии как всеобщего и системного подхода к решению самых трудных технических задач в громадной степени было стимулировано беспрецедентными темпами развития микроэлектроники. Она и остается одной из важнейших и крупнейших сфер приложения нанопарадигмы. Поэтому большинство достижений в нанонауке в первую очередь оцениваются с точки зрения перспективности их использования в компьютерной технике, средствах связи, электронике промышленного и бытового назначения, в том числе и систем записи и хранения информации.

    После изобретения в 1959 г. планарной технологии создания на поверхности очень чистого кремния интегральных схем и ее промышленного освоения в последующие годы темпы совершенствования элементной базы твердотельной электроники были исключительно высокими: динамика улучшения всех существенных параметров БИС укладывается на экспоненту (закон Мура). Так, количество элементов в микропроцессорах и блоках динамической памяти (DRAM) на протяжении почти полувека удваивается каждые полтора года. Этому соответствует неуклонное уменьшение характерных размеров отдельных элементов R , увеличение быстродействия, снижение энергопотребления и стоимости.

    Очень коротко историю этого выдающегося достижения человеческой мысли можно представить следующим образом (рис. 5). В 1947 г. был изобретен первый полупроводниковый биполярный транзистор (Дж. Бардин, У. Браттейн, У. Шокли, Нобелевская премия 1956 г.). В 1959 г. американскими инженерами Дж. Килби (Texas Instruments) и Р.Нойсом (Fairchild Semiconductor) была предложена концепция создания интегральных схем (ИС). В начале 60-х годов на поверхности монокристаллического кремния были сформированы первые приборы нового типа – металл-оксидно-полупроводниковые (МОП) полевые транзисторы. В этих структурах роль диэлектрического слоя между пленкой металла и массивной полупроводниковой подложкой играет оксид кремния, SiO 2 , получаемый контролируемым окислением полированной поверхности Si. В отечественной терминологии иногда употребляют также термин металл – диэлектрик – полупроводниковая структура (МДП), поскольку в качестве диэлектрика может быть использован не только SiO 2 , но и другие материалы: Al 2 O 3 , Si 3 N 4 и т.п. В конце 60-х годов была разработана технология изготовления р-МОП и несколько позже – n-МОП-транзисторов. Они использовали соответственно дырочный и электронный тип проводимости в канале. После их объединения образовался прибор, называемый комплиментарным МОП–транзистором (CMOS), который по настоящее время является основным в схемотехнике БИС. По сравнению с двумя предыдущими вариантами он обладает тем преимуществом, что почти не потребляет тока в режиме ожидания (за исключением очень маленького тока утечки).

    Рис. 5. Основные этапы и хронология развития твердотельной электроники. Кружочками обозначено время изобретения, а прямоугольниками – время промышленного освоения и производства.

    Таким образом, на протяжении почти полувека электроника стремительно развивалась под лозунгом: компактнее, быстрее, лучше, дешевле (имеются в виду характерные размеры отдельных элементов, быстродействие, соотношение цена/качество). Для того чтобы поддерживать эти беспрецедентные в истории цивилизации темпы роста ключевых параметров выпускаемой продукции и в дальнейшем, необходимо к 2012- 2015 г. уменьшить технологический шаг при производстве БИС до ~ 10 нм (против ~ 100 нм, достигнутых в настоящее время). Некоторого прогресса можно ожидать от совершенствования существующих подходов. Однако, по общему мнению специалистов, имеющиеся в промышленности технологии не смогут обеспечить такой рывок даже после существенного улучшения, поскольку в значительной мере они уже исчерпали свои возможности эволюционного совершенствования. Освоение 10-нанометрового диапазона потребует создания принципиально новых физических основ и технологий производства элементной базы, которые в общих чертах просматриваются уже сейчас. Интервал от 1 до 10 нм – пока поле деятельности для фундаментальных исследований, которые только нащупывают возможные пути продвижения массовых технологий в эту область.

    Хотя нано-/микроэлектроника не есть абсолютный синоним компьютерно–информационной техники, с некоторыми небольшими оговорками можно согласиться с почти полной эквивалентностью этих понятий в настоящее время. Такое соглашение дает основание схематически представить основные функции и соответствующие устройства современной микроэлектроники через призму потребностей компьютерной техники так, как это изображено на рис. 6.

    Рис. 6. Основные функции и узлы компьютерно – ориентированной электроники.

    Следуя ему, можно выделить 5 основных функций информационных систем:

    · Обработка информации. Одна из центральных задач любого компьютера или информационной системы – процессинг, т.е. быстрая обработка поступающей информации и выдача решений и управляющих команд. Часто ее жизненно необходимо (или, по меньшей мере, крайне желательно) проводить в режиме on line (управление летательными и космическими аппаратами, атомными электростанциями, сложными энергетическими и технологическими установками и т.п.). Для этого в любом компьютере имеется микропроцессор (или группа связанных микропроцессоров) и средства оперативной памяти, с которыми процессор во время работы периодически обменивается информацией. В настоящее время – это наиболее сложные и дорогостоящие узлы информационных систем (компьютеров), в значительной мере определяющих их возможности.

    · Хранение информации. Имеется в виду долговременное энергонезависимое сохранение больших объемов информации, к которой время от времени может обращаться информационная система. Соответствующие устройства не обязаны быть такими же быстродействующими, как блоки оперативной памяти (обычное время доступа – миллисекунды), но они должны обладать большой емкостью и надежностью для безусловного сохранения информации в течение, по крайней пределе, нескольких лет без энергопотребления и обновляющей перезаписи. Вместе с тем они должны позволять записывать новую информацию и удалять ненужную.

    · Передача информации. Уже сейчас бόльшая часть компьютеров, телефонов, телевизоров, технологической электроники работает в сетях, т.е. они должны быть соединены друг с другом линиями связи. Существуют и внутренние связи внутри компьютера, локального информационного или технологического модуля, каждой отдельной микросхемы. Очевидно, в будущем степень интегрированности на всех уровнях иерархии электронных систем (в микросхеме, компьютере, локальных и глобальных сетях) будет только нарастать и определять функциональность, надежность, себестоимость процесса и др. характеристики. В принципе, возможна как гальваническая связь посредством проводников, так и бесконтактная с помощью электромагнитных волн СВЧ или оптического диапазона.

    · Преобразование информации получение ее из внешней среды и трансформация в электрический сигнал. Физически это осуществляется различными сенсорами, датчиками, микрофонами, видеокамерами и др. Другая сторона этой функции – обратное преобразование закодированной информации в звуковые и зрительные образы, команды, исполнительные действия (механическое перемещение, силовое, тепловое или оптическое воздействие, технологическая обработка и т.п.). Здесь нарушается однородность системы и приходится переходить от одних физических процессов (механических, акустических, оптических, тепловых, химических и т.д.) к другим – электрическим, и наоборот – преобразовывать электрические сигналы в действия и образы с помощью актуаторов, двигателей, инструментов, дисплеев, индикаторов, громкоговорителей и др. Поскольку все современные вычислительные машины работают с дискретной (оцифрованной) информацией, а сенсоры и актуаторы – с аналоговой, для их взаимодействия необходимы аналого-цифровые и цифро-аналоговые преобразователи, которые можно интегрировать в одном корпусе с соответствующим прибором или смонтировать на единой плате сбора и первичной обработки данных (Data Acquisition System – DAS). Не взирая на буквальный перевод, современные DAS способны не только собирать и оцифровывать первичные данные с большого числа датчиков (типично- с 32 или 64), но и выдавать команды и управляющие сигналы, которые формирует компьютер, в дискретной или аналоговой форме.

    · Защита информации. Наконец, последняя (но не по значимости в ответственных случаях) функция – защита информации от несанкционированного доступа, использования, искажения, стирания и т.п. Она должна осуществляться как на физическом уровне, так и на программном, и организационно – правовом.

    С точки зрения новизны и радикальности подходов (а следовательно, и необходимых для реализации материально–экономических ресурсов и затрат времени) можно обозначить три основных направления:

    · развитие наноэлектроники путем эволюционного совершенствования существующих «кремниевых» планарных технологий;

    · более глубокое модифицирование планарной технологии и распространение ее на другие материалы и ситуации;

    · создание принципиально новой электроники следующих поколений на основе «некремниевых» устройств и физических принципов.

    Эти революционные идеи предполагают использование квантовых сверхпроводящих компонентов, нанотрубок, фуллеренов и их производных, оптотроники, биоэлектроники, квантового распределенного компьютинга, одноэлектроники, спинтроники и др.

    На каждом направлении развития наноэлектроники существует несколько групп предложений различной степени новизны и трудности осуществления. В первую очередь целесообразно представить себе, каковы фундаментальные пределы миниатюризации и чем они обусловлены. Можно выделить три группы принципиальных причин, накладывающих ограничения на дальнейшее уменьшение размеров отдельных элементов в БИС:

    · термодинамические;

    · электродинамические;

    · квантовомеханические.

    Первая из них обусловлена конечной температурой объектов, хаотическим тепловым движением атомов и электронов, нагревом вследствие протекания тока (джоулевым тепловыделением и условиями теплоотвода), действием первого и второго начала термодинамики (в частности, стремлением к росту энтропии и потере информации в системе), особенностями обратимых и необратимых процессов в нанообъектах и др.

    Электродинамические ограничения вызваны инерционностью емкостей и индуктивностей в схеме, что препятствует быстрому изменению напряжений и токов при переходе от одного состояния к другому (например, при работе логических ключей в микропроцессоре или ячеек динамической памяти). Конечная скорость распространения электромагнитных волн (особенно в присутствии проводников, ферромагнетиков, ферроэлектриков), движения носителей заряда, перемагничивания ферромагнетиков или переполяризации диэлектриков накладывает дополнительные ограничения на быстродействие.

    Третья группа причин проявляется при уменьшении характерных размеров объекта R до атомарных масштабов. При этом начинает становиться заметной атомная и электронная дискретность в явлениях переноса, взаимодействия частиц и т.п. Приближение R к длине волны де Бройля для электронов приводит к деформации и дискретизации электронных спектров, изменению электрических, магнитных и оптических свойств вещества. Снижение массы (а следовательно импульса p и энергии Е частицы) приводит к росту неопределенности ее положения (Dх, Dу, Dz ) и длительности существования данного состояния (Dt ) в соответствии с принципом неопределнности Гейзенберга: Dp х Dх ≥ и DЕ Dt ≥. Вместе с тем трансформация непрерывных спектров, распределений, состояний, характерных для объемных тел, в дискретные по мере уменьшения R отчасти даже помогает разработке новых принципов в цифровой технике.

    Как видно из всего спектра задач и потенциальных возможностей нанотехнологии, применение ее достижений в сфере информационных технологий на интересующем нас направлении систем и средств записи/хранения информации может быть осуществлено в двух направлениях:

    · совершенствование традиционных методов записи/хранения информации вплоть до квантовых границ применимости основных законов, на которых эти системы основаны;

    · разработка принципиально новых фундаментальных принципов и технологических решений устройств обработки и накопления информации.

    Человек хранит информацию в собственной памяти, а также в виде записей на различных внешних (по отношению к человеку) носителях: на камне, папирусе, бумаге, магнитных и оптических носителях и пр. Благодаря таким записям, информация передается не только в пространстве (от человека к человеку), но и во времени - из поколения в поколение.

    Рассмотрим способы хранения информации более подробно.

    Информация может храниться в различных видах: в виде записанных текстов, рисунков, схем, чертежей; фотографий, звукозаписей, кино- или видеозаписей. В каждом случае применяются свои носители.

    Носитель - это материальная среда, используемая для записи и хранения информации.

    Практически носителем информации может быть любой материальный объект. Информацию можно сохранять на камне, дереве, стекле, ткани, песке, теле человека и т. д. Здесь мы не станем обсуждать различные исторические и экзотические варианты носителей. Ограничимся современными средствами хранения информации, имеющими массовое применение.

    Использование бумажных носителей информации

    Носителем, имеющим наиболее массовое употребление, до сих пор остается бумага. Изобретенная во II веке н. э. в Китае бумага служит людям уже 19 столетий.

    Для сопоставления объемов информации на разных носителях будем пользоваться единицей - байтом, считая, что один знак текста «весит» 1 байт. Нетрудно подсчитать информационный объем книги, содержащей 300 страниц с размером текста на странице примерно 2000 символов. Текст такой книги имеет объем примерно 600 000 байтов, или 586 Кб. Средняя школьная библиотека, фонд которой составляют 5000 томов, имеет информационный объем приблизительно 2861 Мб = 2,8 Гб.

    Что касается долговечности хранения документов, книг и прочей бумажной продукции, то она очень сильно зависит от качества бумаги, красителей, используемых при записи текста, условий хранения.

    Интересно, что до середины XIX века (с этого времени для производства бумаги начали использовать древесину) бумага делалась из хлопка и текстильных отходов - тряпья. Чернилами служили натуральные красители. Качество рукописных документов того времени было довольно высоким, и они могли храниться тысячи лет. С переходом на древесную основу, с распространением машинописи и средств копирования, с началом использования синтетических красителей срок хранения печатных документов снизился до 200-300 лет.

    На первых компьютерах бумажные носители использовались для цифрового представления вводимых данных. Это были перфокарты: картонные карточки с отверстиями, хранящие двоичный код вводимой информации. На некоторых типах ЭВМ для тех же целей применялась перфорированная бумажная лента.

    Использование магнитных носителей информации

    В XIX веке была изобретена магнитная запись. Первоначально она использовалась только для сохранения звука. Самым первым носителем магнитной записи была стальная проволока диаметром до 1 мм. В начале XX столетия для этих целей использовалась также стальная катаная лента. Тогда же (в 1906 г.) был выдан и первый патент на магнитный диск. Качественные характеристики всех этих носителей были весьма низкими. Достаточно сказать, что для производства 14-часовой магнитной записи устных докладов на Международном конгрессе в Копенгагене в 1908 г. потребовалось 2500 км, или около 100 кг проволоки.

    В 20-х годах XX века появляется магнитная лента сначала на бумажной, а позднее - на синтетической (лавсановой) основе , на поверхность которой наносится тонкий слой ферромагнитного порошка. Во второй половине XX века на магнитную ленту научились записывать изображение, появляются видеокамеры, видеомагнитофоны.

    На ЭВМ первого и второго поколений магнитная лента использовалась как единственный вид сменного носителя для устройств внешней памяти . Любая компьютерная информация на любом носителе хранится в двоичном (цифровом) виде. Поэтому независимо от вида информации: текст это, или изображение, или звук - ее объем можно измерить в битах и байтах. На одну катушку с магнитной лентой, использовавшейся в лентопротяжных устройствах первых ЭВМ, помещалось приблизительно 500 Кб информации.

    С начала 1960-х годов в употребление входят компьютерные магнитные диски: алюминиевые или пластмассовые диски , покрытые тонким магнитным порошковым слоем толщиной в несколько микрон. Информация на диске располагается по круговым концентрическим дорожкам, на которые она записывается и считывается в процессе вращения диска с помощью магнитных головок.

    На первых ПК использовались гибкие магнитные диски (флоппи-диски) - сменные носители информации с небольшим объемом памяти - до 2 Мб. Начиная с 1980-х годов, в ПК начали использоваться встроенные в системный блок накопители на жестких магнитных дисках, или НЖМД (англ. HDD - Hard Disk Drive). Их еще называют винчестерскими дисками.

    Винчестерский диск представляет собой пакет магнитных дисков, надетых на общую ось, которая при работе компьютера находится в постоянном вращении. С каждой магнитной поверхностью пакета дисков контактирует своя магнитная головка.

    Информационная емкость современных винчестерских дисков измеряется в терабайтах .

    Оптические диски и флеш-память

    Применение оптического, или лазерного, способа записи информации начинается в 1980-х годах. Его появление связано с изобретением квантового генератора - лазера, источника очень тонкого (толщина порядка микрона) луча высокой энергии. Луч способен выжигать на поверхности плавкого материала двоичный код данных с очень высокой плотностью. Считывание происходит в результате отражения от такой «перфорированной» поверхности лазерного луча с меньшей энергией («холодного» луча). Первоначально на ПК вошли в употребление оптические компакт - диски - CD, информационная емкость которых составляет от 190 Мб до 700 Мб.

    Во второй половине 1990-х годов появились цифровые универсальные видеодиски DVD (Digital Versatile Disk) с большой емкостью, измеряемой в гигабайтах (до 17 Гб). Увеличение их емкости по сравнению с CD связано с использованием лазерного луча меньшего диаметра, а также двухслойной и двусторонней записи. Вспомните пример со школьной библиотекой. Весь ее книжный фонд можно разместить на одном DVD.

    В настоящее время оптические диски (CD и DVD) являются наиболее надежными материальными носителями информации, записанной цифровым способом. Эти типы носителей бывают как однократно записываемыми - пригодными только для чтения, так и перезаписываемыми - пригодными для чтения и записи.

    В последнее время появилось множество мобильных цифровых устройств: цифровые фото- и видеокамеры, МРЗ-плееры, карманные компьютеры, мобильные телефоны, устройства для чтения электронных книг, GPS-навигаторы и др. Все эти устройства нуждаются в переносных носителях информации. Но поскольку все мобильные устройства довольно миниатюрные, к носителям информации для них предъявляются особые требования. Они должны быть компактными, обладать низким энергопотреблением при работе, быть энергонезависимыми при хранении, иметь большую емкость, высокие скорости записи и чтения, долгий срок службы. Всем этим требованиям удовлетворяют флеш-карты памяти. Информационный объем флеш-карты может составлять несколько десятков гигабайтов.

    В качестве внешнего носителя для компьютера широкое распространение получили так называемые флеш-брелоки (их называют в просторечии «флешки»), выпуск которых начался в 2001 году. Большой объем информации, компактность, высокая скорость чтения/записи, удобство в использовании - основные достоинства этих устройств.

    Флеш-брелок подключается к USB-порту компьютера и позволяет скачивать данные со скоростью около 10 Мб в секунду.

    В последние годы активно ведутся работы по созданию еще более компактных носителей информации с использованием нанотехнологий , работающих на уровне атомов и молекул вещества. В результате один компакт-диск, изготовленный по нанотехнологии, сможет заменить тысячи оптических дисков. По предположениям экспертов, приблизительно через 20 лет плотность хранения информации возрастет до такой степени, что на носителе объемом примерно с кубический сантиметр можно будет записать каждую секунду человеческой жизни.


    Вопросы и задания

    1. Какая, с вашей точки зрения, сохраняемая информация имеет наибольшее значение для всего человечества, для отдельного человека?

    2. Назовите известные вам крупные хранилища информации.

    3. Можно ли человека назвать носителем информации?

    4. Где и когда появилась бумага?

    5. Когда была изобретена магнитная запись? Какими магнитными носителями вы пользуетесь или пользовались?

    6. Какое техническое изобретение позволило создать оптические носители информации? Назовите типы оптических носителей.

    7. Назовите сравнительные преимущества и недостатки магнитных и оптических носителей.

    8. Что означает свойство носителя «только для чтения»?

    9. Какими устройствами, в которых используются флеш-карты, вы пользуетесь? Какой у них информационный объем?

    10. Какие перспективы, с точки зрения хранения информации, открывают нанотехнологии?

    Передача информации




    Из курса основной школы вам известно:

    Распространение информации происходит в процессе ее передачи.

    Процесс передачи информации протекает от источника к приемнику по информационным каналам связи.

    В этом параграфе более подробно будут рассмотрены технические системы передачи информации.

    Ранее уже говорилось о том, что первой в истории технической системой передачи информации стал телеграф. В 1876 году американец Александр Белл изобрел телефон. На основании открытия немецким физиком Генрихом Герцем электромагнитных волн (1886 год), А. С. Попов в России в 1895 году и почти одновременно с ним в 1896 году Г. Маркони в Италии изобрели радио. Телевидение и Интернет появились в XX веке.

    Модель передачи информации К. Шеннона

    Все перечисленные способы информационной связи основаны на передаче на расстояние физического (электрического или электромагнитного) сигнала и подчиняются некоторым общим законам. Исследованием этих законов занимается теория связи, возникшая в 1920-х годах. Математический аппарат теории связи - математическую теорию связи разработал американский ученый Клод Шеннон . Клодом Шенноном была предложена модель процесса передачи информации по техническим каналам связи, представленная схемой на рис. 2.1.


    Работу такой схемы можно пояснить на знакомом всем процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством - микрофон телефонной трубки, с помощью которого звуковые волны (речь) преобразуются в электрические сигналы. Каналом связи служит телефонная сеть (провода, коммутаторы телефонных узлов, через которые проходит сигнал). Декодирующим устройством является телефонная трубка (наушник) слушающего человека - приемника информации. Здесь пришедший электрический сигнал превращается в звук.

    «Чтоб тебе жить в эпоху перемен» - весьма лаконичное и вполне понятное проклятие для человека скажем старше 30 лет. Современный этап развития человечества сделал нас невольными свидетелями уникальной «эпохи перемен». И тут даже играет роль не то что бы масштаб современного научного прогресса, по значимости для цивилизации переход от каменных орудий труда к медным очевидно был куда более знаковым, нежели удвоение вычислительных способностей процессора, которое само по себе будет явно более технологичным. Та огромная, все нарастающая скорость изменений в техническом развитии мира просто обескураживает. Если еще лет сто назад каждый уважаемый себя джентльмен просто обязан был быть в курсе всех «новинок» мира науки и техники, чтоб не выглядеть в глазах своего окружения глупцом и деревенщиной, то сейчас учитывая объемы и скорость порождения этих «новинок» отслеживать их всецело просто невозможно, даже вопрос так не ставится. Инфляция технологий, еще до недавно не мыслимых, и связанных с ними возможностей человека, фактически убили прекрасное направление в литературе – «Техническая фантастика». В ней отпала нужда, будущее стало многократно ближе, чем, когда либо, задуманный рассказ о «чудесной технологии» рискует дойти до читателя позже, нежели что-то подобное уже будет сходить с конвейеров НИИ.

    Прогресс технической мысли человека всегда наиболее быстро отображался именно в сфере информационных технологий. Способы сбора, хранения, систематизации, распространения информации проходят красной нитью через всю историю человечества. Прорывы будь то в сфере технических, или гуманитарных наук, так или иначе, отзывались на ИТ. Пройденный человечеством цивилизационный путь, это череда последовательных шагов усовершенствования способов хранения и передачи данных. В данной статье попробуем более детально разобраться и проанализировать основные этапы в процессе развития носителей информации, провести их сравнительный анализ, начиная от самых примитивных - глиняных табличек, вплоть до последних успехов в создании машинно-мозгового интерфейса.

    Задача поставлена действительно не шуточная, ишь на что замахнулся, скажет заинтригованный читатель. Казалось бы, каким образом можно, при соблюдении хотя бы элементарной корректности, сравнивать существенно разнящиеся между собой технологии прошлого и сегодняшнего дня? Поспособствовать решению этого вопроса может тот факт, что способы восприятия информации человеком собственно не сильно и претерпели изменения. Формы записи и формы считывания информации по средствам звуков, изображений и кодированных символов (письма) остались прежними. Во многом именно эта данность стала так сказать общим знаменателем, благодаря которому возможно будет провести качественные сравнения.

    Методология

    Для начала стоит воскресить в памяти прописные истины, которыми мы и будем далее оперировать. Элементарным носителем информации двоичной системы есть «бит», в то время как минимальной единицей хранения и обработки компьютером данных является «байт» при этом в стандартной форме, последний включает в себя 8 бит. Более привычный для нашего слуха мегабайт соответствует: 1 мбайт = 1024 кбайт = 1048576 байт.

    Приведенные единицы на данный момент являются универсальными мерилами объема цифровых данных размещенных на том или ином носителе, поэтому их будет весьма легко использовать в дальнейшей работе. Универсальность состоит в том, что группой битов, фактически скоплением цифр, набором значений 1 / 0, можно описать любое материальное явление и тем самым его оцифровать. Неважно, будь это самый мудреный шрифт, картина, мелодия все эти вещи состоят из отдельных компонентов, каждому из которых присваивается свой уникальный цифровой код. Понимание этого базового принципа делает возможным наше продвижение дальше.

    Тяжелое, аналоговое детство цивилизации

    Само эволюционное становления нашего вида кинуло людей в объятие аналогового восприятия окружающего их пространства, что во многом и предрешило судьбу нашего технологического становления.

    При первом взгляде современного человека, технологии, зарождавшиеся на самой заре человечества весьма примитивны, не искушенному в деталях именно так и может представится само существование человечества до перехода в эру «цифры», но так ли это, такое ли уж «детство» было тяжелое? Задавшись изучением поставленного вопроса, мы можем лицезреть весьма незатейливые технологии способов хранения и обработки информации на этапе их появления. Первым в своем роде носителем информации, созданным человеком, стали переносные площадные объекты с нанесенными на них изображениями. Таблички и пергаменты давали возможность не только сохранять, но и более эффективно, чем когда-либо до этого, эту информацию обрабатывать. На этом этапе появившаяся возможность концентрировать огромное количество информации в специально отведенных для этого местах – хранилищах, где эту информацию систематизировали и тщательно оберегали, стала основным толчком к развитию всего человечества.

    Первые известные ЦОДы, как бы мы их назвали сейчас, до недавнего времени именующиеся библиотеками, возникли на просторах ближнего востока, между реками Нил и Евфрат, еще около II тысяч лет до н.э. Сам формат носителя информации все это время существенно определял способы взаимодействия с ним. И тут уже не столь важно, глинобитная дощечка это, папирусный свиток, или стандартный, целлюлозно-бумажный лист формата А4, все эти тысячи лет были тесно объединены аналоговым способом внесения и считывания данных с носителя.

    Период времени на протяжении, которого доминировал именно аналоговый способ взаимодействия человека с его информационным скарбом успешно продлился в плоть до наших дней, лишь совсем недавно, уже в ХХI веке, окончательно уступив цифровому формату.

    Очертив приблизительные временные и смысловые рамки аналогового этапа нашей цивилизации, мы теперь можем вернуться к поставленному, в начале этого раздела вопросу, уж таки они не эффективные эти методы хранения данных, что мы имели и до самого недавнего времени использовали, не ведая про iPad, флешки и оптические диски?

    Давайте произведем расчет

    Если откинуть последний этап упадка технологий аналогового хранения данных, который продлился последних лет 30, можно с прискорбием заметить, что эти сами технологии по большему счету тысячами лет не претерпевали существенных изменений. Действительно прорыв в этой сфере пошел сравнительно не давно, это конец ХIХ века, но об этом чуть ниже. До середины заявленного века, среди основных способов записи данных можно выделить два основных, это письмо и живопись. Существенное различие этих способов регистрации информации, абсолютно независимо от носителя, на котором она осуществляется, кроется в логике регистрации информации.
    Изобразительное искусство
    Живопись представляется наиболее простым способом передачи данных, не требующим, каких-то дополнительных знаний, как на этапе создания, так и пользования данными, тем самым фактически являясь исходным форматом воспринимаемым человеком. Чем более точно идет на поверхность холста передача отраженного света от поверхности окружающих предметов на сетчатку глаза писца, тем более информативное будет это изображение. Не доскональность техники передачи, материалов, которые использует создатель изображения, являются тем шумом, который в дальнейшем будет мешать для точного чтения зарегистрированной таким способом информации.

    Сколь же информативно изображение, какое количественное значение информации несет рисунок. На этом этапе осознания процесса передачи информации графическим способом мы наконец можем окунуться в первые расчеты. В этом к нам на помощь придет базовый курс информатики.

    Любое растровое изображение дискретно, это всего на всего набор точек. Зная это его свойство, мы можем перевести отображенную информацию, которую оно несет, в понятные для нас единицы. Поскольку присутствие / отсутствие контрастной точки фактически является простейшим бинарным кодом 1 / 0 то и, следовательно, каждая эта точка приобретает 1 бит информации. В свою очередь изображение группы точек, скажем 100х100, будет вмещать в себе:

    V = K * I = 100 x 100 x 1 бит = 10 000 бит / 8 бит = 1250 байт / 1024 = 1.22 кбайт

    Но давайте не забывать, что выше представленный расчет корректен только лишь для монохромного изображения. В случае куда более часто используемых цветных изображений, естественно, объем передаваемой информации существенно возрастет. Если принять условием достаточной глубины цвета 24 битную (фотографическое качество) кодировку, а она, напомню, имеет поддержку 16 777 216 цветов, следовательно мы получим, куда больший объем данных для того же самого количества точек:

    V = K * I = 100 x 100 x 24 бит = 240 000 бит / 8 бит = 30 000 байт / 1024 = 29.30 кбайт

    Как известно точка не имеет размера и в теории любая площадь, отведенная, под нанесение изображения может нести бесконечно большое количество информации. На практике же есть вполне определенные размеры и соответственно можно определить объем данных.

    На основе множества проведенных исследований было установлено, что человек со среднестатистической остротой зрения, с комфортного для чтения информации расстояния (30 см), может различит около 188 линий на 1 сантиметр, что в современной технике приблизительно соответствует стандартному параметру сканирования изображения бытовыми сканерами в 600 dpi. Следовательно, с одного квадратного сантиметра плоскости, без дополнительных приспособлений, среднестатистический человек может считать 188:188 точек, что будет равноценно:

    Для монохромного изображения:
    Vm = K * I = 188 x 188 x 1 бит = 35 344 бит / 8 бит = 4418 байт / 1024 = 4.31 кбайт

    Для изображения фотографического качества:
    Vc = K * I = 188 x 188 x 24 бит = 848 256 бит / 8 бит = 106 032 байт / 1024 = 103.55 кбайт

    Для большей наглядности, на основе полученных расчетов, можем легко установить сколько информации несет в себе такой привычный нам листок формата как А4 с габаритами 29.7/21 см:

    VА4 = L1 x L2 x Vm = 29.7 см х 21 см х 4.31 кбайт = 2688.15 / 1024 = 2.62 мбайт – монохромной картинки

    VА4 = L1 x L2 x Vm = 29.7 см х 21 см х 103.55 кбайт = 64584.14 / 1024 = 63.07 мбайт – цветной картинки

    Письменность
    Если с изобразительным искусством «картина» более-менее ясна, то с письмом не так все просто. Очевидные различие в способах передачи информации между текстом и рисунком диктуют различный подход в определении информативности этих форм. В отличии от изображения, письмо – это вид стандартизированной, кодированной передачи данных. Не зная заложенного в письмо кода слов и формирующих их букв информативная нагрузка, скажем шумерской клинописи, для большинства из нас вообще равна нулю, в то время как древние изображения на руинах того же Вавилона будут вполне корректно восприняты даже человеком абсолютно не сведущим о тонкостях древнего мира. Становится вполне очевидным, что информативность текста чрезвычайно сильно зависит от того в чьи руки он попал, от дешифрирования ее конкретным человеком.

    Тем не менее, даже при таких обстоятельствах, несколько размывающих справедливость нашего подхода, мы можем вполне однозначно рассчитать то количество информации, которое размещалось в текстах на разного рода плоских поверхностях.
    Прибегнув к уже знакомой нам двоичной системе кодирования и стандартному байту, письменный текст, который можно себе представить, как набор букв, формирующий слова и предложения, очень легко привести к цифровому виду 1 / 0.

    Привычный для нас 8 битный байт, может обретать до 256 разных цифровых комбинаций, чего собственно должно хватить для цифрового описания любого существующего алфавита, а также цифр и знаков препинания. Отсюдова напрашивается вывод, что любой нанесенный стандартный знак алфавитного письма на поверхность, занимает 1 байт в цифровом эквиваленте.

    Немного по-другому дело обстоит с иероглифами, которые также широко используются уже несколько тысяч лет. Заменяя одним знаком целое слово, эта кодировка явно куда более эффективнее использует отведенную ей плоскость с точки зрения информационной нагрузки нежели это происходит в языках, основанных на алфавите. В тоже время, количество уникальных знаков, каждому из которых нужно присвоить не повторную комбинацию сочетания 1 и 0 в разы большее. В самых распространенных существующих иероглифических языках: китайском и японском, по статистике, фактически используется не более 50 000 уникальных знаков, в японском и того менее, на данный момент министерство просвещения страны, для повседневного использования, определило всего 1850 иероглифов. В любом случае 256-ю комбинациями вмещающиеся в один байт тут уже не обойтись. Один байт хорошо, а два еще лучше, гласит видоизмененная народная мудрость, 65536 – именно столько цифровых комбинаций мы получим, используя два байта, чего в принципе становится достаточным для перевода активно используемого языка в цифровую форму, тем самым присваивая абсолютному большинству иероглифов два байта.

    Существующая практика использования письма гласит нам о том, что на стандартный лист формата А4 можно разместить около 1800 читабельных, уникальных знака. Проведя не сложные арифметические вычисления можно установить сколько в цифровом эквиваленте будет нести информации один стандартный машинописный листок алфавитного, и более информативного иероглифического письма:

    V = n * I = 1800 * 1 байт = 1800 / 1024 = 1.76 кбайт либо 2.89 байта / см2

    V = n * I = 1800 * 2 байт = 3600 / 1024 = 3.52 кбайт либо 5.78 байта / см2

    Индустриальный скачок

    XIX век стал переломным, как для способов регистрации, так и хранения аналоговых данных, это стало следствием появления революционных материалов и методик записи информации, которым предстояло изменить ИТ-мир. Одним из главных новшеств стала технология записи звука.

    Изобретение фонографа Томасом Эдисоном породило существование сначала цилиндров, с нанесенными на них бороздами, а в скором и пластинок - первых прообразов оптических дисков.

    Реагируя на звуковые вибрации, резец фонографа неустанно проделывал канавки на поверхности как металлических, так и чуть позднее полимерных. В зависимости от уловленной вибрации резец наносил на материале закрученную канавку разной глубины и ширины, что в свою очередь давало возможность записывать звук и чисто механическим способом обратно воспроизводить, уже однажды выгравированные звуковые вибрации.

    На презентации первого фонографа Т. Эдисоном в Парижской Академии Наук случился конфуз, один не молодой, ученный-лингвист, чуть было услышав репродукцию человеческой речи механическим устройством, сорвался с места и возмущенный бросился с кулаками на изобретателя, обвинив его в мошенничестве. По словам этого уважаемого члена академии, метал никогда не смог бы повторить мелодичности человеческого голоса, а сам Эдисон является обыкновенным чревовещателем. Но мы то с вами знаем, что это конечно не так. Более того в ХХ веке люди научились хранить звуковые записи в цифровом формате, и сейчас мы окунемся в некоторые цифры, после чего станет вполне понятно сколько информации умещается на обычной виниловой (материал стал самым характерным и массовом представителем этой технологии) пластинке.

    Точно также, как и ранее с изображением, здесь мы будем отталкиваться от человеческих способностей улавливать информацию. Широко известно, что чаще всего человеческое ухо способно воспринимать звуковые колебания от 20 до 20 000 Герц, на основе этой константы, для перехода на цифровой формат звука, была принята величина в 44100 Герц, поскольку для корректного перехода, частота дискретизации колебания звука должна быть в два раза выше его исходного значения. Также не маловажным фактором тут является глубина кодировки каждого из 44100 колебаний. Параметр этот на прямую влияет на количество битов присущих одной волне, чем большее положение звуковой волны записано в конкретную секунду времени, тем большим количеством битов оно должно быть закодировано и тем более качественным будет звучать оцифрованный звук. Соотношением параметров звука, выбранным для самого распространенного на сегодняшний день формата, не искаженным сжатиями, применяемом на аудио дисках, является его 16 битная глубина, при дискретности колебаний 44.1 кГц. Хотя есть и более «емкие» соотношения приведенных параметров, вплоть до 32бит / 192 кГц, которые может быть были бы и более сопоставимы с фактическим качеством звучания грамм записи, но мы в расчеты включим соотношение 16 бит / 44.1 кГц. Именно выбранное соотношение в 80-90х годах ХХ столетия нанесло сокрушительный удар по индустрии аналоговой аудиозаписи, став фактически полноценной альтернативой ей.

    И так, приняв за исходные параметры звука оглашенные величины можем рассчитать цифровой эквивалент объема аналоговой информации, которую несет в себе технология грамзаписи:

    V = f * I = 44100 Герц * 16 бит = 705600 бит/сек / 8 = 8820 байт/сек / 1024 = 86.13 кбайт/сек

    Расчетным путем мы получили необходимый объем информации для кодирования 1 секунды звучания качественной грамзаписи. Поскольку размеры пластинок варьировались, точно также как и густота бороздок на ее поверхности, объем информации на конкретных представителях такого носителя также существенно отличался. Максимальное время качественной записи на виниловую пластинку диаметром 30 см составляло менее 30 минут на одной стороне, что было на гране возможностей материала, обычно же это значение не превышало 20-22 минут. Имея эту характеристику, следует, что на виниловой поверхности могло разместиться:

    Vv = V * t = 86.13 кбайт/сек * 60 сек * 30 = 155034 кбайт / 1024 = 151.40 мбайт

    А по факту размещалось не более:
    Vvf = 86.13 кбайт/сек * 60 сек * 22 = 113691.6 кбайт / 1024 = 111.03 мбайт

    Общая площадь такой пластинки составляла:
    S = π* r^2 = 3.14 * 15 см * 15 см= 706.50 см2

    Фактически, на один квадратный сантиметр пластинки приходится 160.93 кбайт информации, естественно пропорция для разных диаметров будет изменяться не линейно, так как тут взята не эффективная площадь записи, а всего носителя.

    Магнитная лента
    Последним и, пожалуй, наиболее эффективным носителем данных, наносимых и читаемых аналоговыми методами, стала магнитная лента. Лента фактически единственный носитель, который довольно успешно пережил аналоговую эру.

    Сама технология записи информации способом намагничивания, была запатентована еще в конце ХIХ века датским физиком Вольдемаром Поультсеном, но к сожалению, тогда она широкого распространения не приобрела. Впервые, технология в промышленном масштабе была использована только лишь в 1935 году немецкими инженерами, на ее базе был создан первый пленочный магнитофон. За 80 лет своего активного использования магнитная лента претерпела существенные изменения. Использовались разные материалы, разные геометрические параметры самой ленты, но все эти усовершенствования базировались на едином принципе, выработанном еще 1898 году Поультсеном, магнитной регистрации колебаний.

    Одним из наиболее широко используемых форматов стала лента, состоящая из гибкой основы, на которую наносилась одна из окисей метала (железо, хром, кобальт). Ширина ленты, использующаяся в бытовых аудио магнитофонах, обычно была одно дюймовая (2.54 см), толщина ленты начиналась от 10 мкм, что касается протяженности ленты, то она существенно варьировалась в разных мотках и чаще всего составляла от сотен метров до тысячи. Для примера на бобину диаметром в 30 см могло вместится около 1000 м ленты.

    Качество звучания зависело от многих параметров, как самой ленты, так и считывающей ее аппаратуры, но в общем при правильном сочетании этих самых параметров на магнитную ленту удавалось делать высококачественные студийные записи. Более высокое качество звучания добивались использованием большего объема ленты для записи единицы времени звука. Естественно, чем больше ленты используется для записи момента звучания, тем более широкий спектр частот удалось перенести на носитель. Для студийных, высококачественных материалов скорость регистрации на ленту составляла не менее 38.1 см/сек. При прослушивании записей в быту, для достаточно полного звучания хватало записи, осуществленной на скорости в 19 см/сек. Как результат, на 1000 м бобине могло разместится до 45 минут студийного звучания, либо до 90 минут приемлемого, для основной массы потребителей, контента. В случаях технических записей, либо речей, для которых ширина частотного диапазона при воспроизведении не играла особой роли, при расходе ленты в 1.19 см/сек на вышеупомянутую бобину, существовала возможность записать звуков аж на 24 часа.

    Имея общее представление об технологиях записи на магнитную ленту во второй половине ХХ века, можно более-менее корректно перевести емкость бобинных носителей в понятные нам единицы измерения объема данных, как мы это уже совершали для грамзаписи.

    В квадратном сантиметре подобного носителя разместится:
    Vo = V / (S * n) = 86.13 кбайт/сек / (2.54 см * 1 см * 19) = 1.78 Kбайт/см2

    Общий объем катушки с 1000 метрами пленки:
    Vh = V * t = 86.13 кбайт/сек * 60 сек * 90 = 465102 кбайт / 1024 = 454.20 Мбайт

    Не стоит забывать, что конкретный метраж ленты в бобине был весьма разным, это зависело, прежде всего, от самого диаметра бобины и толщины ленты. Довольно распространенными, в следствии приемлемых габаритов, широко использовались бобины, вмещающие в себя 500…750 метров пленки, что для рядового меломана было эквивалентом часового звучания, чего было вполне достаточно для теражирования среднестатистического музыкального альбома.

    Довольно короткой, но от того не менее яркой была жизнь видео кассет, в которых использовался все тот же принцип регистрации аналогового сигнала на магнитную ленту. Ко времени промышленного использования этой технологии плотность записи на магнитную ленту кардинально возросла. На полудюймовую пленку длиной в 259.4 метра умещалось 180 минут видеоматериала с весьма сомнительным, как на сегодняшний день, качеством. Первые форматы видеозаписи выдавали картинку на уровне 352х288 линий, наилучшие образцы показывали результат на уровне 352х576 линий. В пересчете на битрейд, наиболее прогрессивные методы воспроизведения записи давали возможность приблизится к значению в 3060 кбит/сек, при скорости считывания информации с ленты в 2.339 см/сек. На стандартной трехчасовой кассете могло разместиться около 1724.74 Мбайт, что в общем не так и дурно, как результат видеокассеты массово оставались востребованными еще до самого недавнего времени.

    Волшебная цифра

    Появление и повсеместное внедрение цифры (бинарного кодирования) целиком и полностью обязано ХХ веку. Хотя сама философия кодирования двоичным кодом 1 / 0, Да / Нет, так или иначе витала среди человечества в разные времена и на разных континентах, набирая порою самых удивительных форм, окончательно материализовалась она именно в 1937 году. Студент Массачусетского Технологического Университета – Клод Шаннон, базируясь на работах великого британского (ирландского) математика Георга Буле, применил принципы Буленовской алгебры к электрическим цепям, что фактически и стало отправной точкой для кибернетики в том виде в котором мы знаем ее сейчас.

    Менее чем за сто лет, как аппаратная, так и программная составная цифровых технологий претерпели огромное количество серьезных изменений. То же самое справедливо будет сказать и для носителей информации. Начиная от сверх неэффективных – бумажных носителей цифровых данных, мы пришли к сверх эффективным – твердо тельным хранилищам. В общем, вторая половина прошлого века прошла под знаменем экспериментов и поиска новых форм носителей, что можно лаконично назвать всеобщим бардаком формата.

    Перфокарта
    Перфокарты стали, пожалуй, первой ступенькой на пути взаимодействия ЭВМ и человека. Такое общение длилось довольно долго, порою даже сейчас этот носитель можно встретить в специфических НИИ раскиданных на просторах СНГ.

    Одним из самых распространенных форматом перфокарт, был формат IBM введен еще в 1928 году. Этот формат стал базовым и для советской промышлености. Габариты такой перфокарты по ГОСТу составляли 18.74 х 8.25 см. Вмещалось на перфокарту не более 80 байт, на 1 см2 приходилось всего 0.52 байта. В таком исчислении, для примера, 1 Гигабайт данных был бы равен примерно 861.52 Гектарам перфокарт, а вес одного такого Гигабайта составлял чуть менее 22 тонн.

    Магнитные ленты
    Во 1951 году были выпущены первые образцы носителей данных базирующихся на технологии импульсного намагничивания ленты специально для регистрации на нее «цифры». Такая технология позволяла вносить на один сантиметр полудюймовой металлической ленты до 50 символов. В дальнейшем технология серьезно усовершенствовалась, позволяя во много крат увеличивать количество единичных значений на единицу площади, а также как можно более удешевлять материал самого носителя.

    На данный момент, по самым последним заявлениям корпорации Sony, их нано разработки позволяют разместить на 1 см2 объем информации равен 23 Гигабайтам. Такие соотношения цифр наталкивают на мысль, что данная, технология ленточной магнитной записи себя не отжила и имеет довольно радужные перспективы дальнейшей эксплуатации.

    Грамм запись
    Наверное, наиболее удивительный метод хранения цифровых данных, но лишь на первый взгляд. Идея записи действующей программы на тонкий слой винила возникла в 1976 году в компании Processor Technology, что базировалась в Канзас Сити, США. Суть задумки состояла в том, чтоб максимально удешевить носитель информации. Сотрудники компании взяли аудио ленту, с записанными данными в уже существующем звуковом формате «Канзас Сити Стандарт», и перегнали ее на винил. Кроме удешевления носителя, данное решение позволило подшить выгравированную пластинку к обычному журналу, что позволило массово распространять небольшие программы.

    В мае 1977 года подписчики журналов, в первые получили в своем номере пластинку, на которой размещался интерпретатор 4К BASIC для процессора Motorola 6800. Время звучания пластинки составляло 6 минут.
    Данная технология в силу понятных причин не прижилась, официально, последняя пластинка, так званный Floppy-Rom, увидела свет в сентябре 1978 года, это был ее пятый выпуск.

    Винчестеры
    Первый винчестер был представлен компанией IBM в 1956 году, модель IBM 350 шла в комплекте с первым массовым компьютером компании. Общий вес такого «жесткого диска» составлял 971 кг. По габаритам он был сродни шкафу. Располагалось в нем 50 дисков, диаметр которых составлял 61 см. Общий объем информации, который мог разместиться на этом «винчестере» равнялся скромным 3.5 мегабайтам.

    Сама технология записи данных была, если можно так сказать, производной от грамзаписи и магнитных лент. Диски, размещенные внутри корпуса, хранили на себе множество магнитных импульсов, которые вносились на них и считывались подвижной головкой регистратора. Словно патефонному волчку в каждый момент времени регистратор перемещались по площади каждого из дисков, получая доступ к необходимой ячейке, что несла в себе магнитный вектор определенной направленности.

    На данный момент вышеупомянутая технология также жива и более того активно развивается. Менее года назад компания Western Digital выпустила первый в мире «винчестер» объемом в 10 Тбайт. В середине корпуса разместилось 7 пластин, а вместо воздуха в середину его был закачан гелий.

    Оптические диски
    Обязаны своим появлением партнерству двух корпораций Sony и Philips. Оптический диск был презентован в 1982 году, как годная, цифровая альтернатива аналоговым аудио носителям. При диаметре 12 см на первых образцах можно было разместить до 650 Мбайт, что при качестве звука 16 бит / 44.1 кГц, составляло 74 минуты звучания и это значение было выбрано не зря. Именно 74 минуты длится 9-я симфония Бетховена, которую чрезмерно любил толи один из совладельцев Sony, толи один из разработчиков со стороны Philips, и теперь она могла целиком вместится на один диск.

    Технология процесса нанесения и считывания информации весьма проста. На зеркальной поверхности диска выжигаются углубления, которые при считке информации, оптическим способом, однозначно регистрируются как 1 / 0.

    Технология оптических носителей также процветает и в нашем 2015 году. Технология известная нам как Blu-ray disc с четырех слойной записью вмещает на своей поверхности около 111.7 Гигабайт данных, при своей не слишком высокой цене, являясь идеальными носителями для весьма «емких» фильмов повышенной разрешающей способности с глубокой передачей цветов.

    Твердотельные накопители, флэш память, SD карты
    Все это детище одной технологии. Разработанный еще в 1950-х годах принцип записи данных на основе регистрации электрического заряда в изолированной области полупроводниковой структуры. Долгое время он не находил своей практической реализации для создания на его базе полноценного носителя информации. Главной причиной этому были большие габариты транзисторов, которые при максимально возможной их концентрации не могли породить на рынке носителей данных конкурентный продукт. О технологии помнили и периодически пытались ее внедрить на протяжении 70х-80х годов.

    Действительно звездный час для твердотельных накопителей настал с конца 80-х, когда размеры полупроводников начали достигать приемлемых размеров. Японская Toshiba в 1989 году презентовала абсолютно новый тип памяти «Flash», от слова «Вспышка». Само это слово весьма хорошо символизировало главные плюсы и минусы носителей, реализованных на принципах данной технологии. Небывалая ранее скорость доступа к данным, довольно ограниченное количество циклов перезаписи и необходимость присутствия внутреннего источника питания для некоторых из такого рода носителей.

    К сегодняшнему дню наибольшей концентрации объема памяти производители носителей достигли благодаря стандарту карт SDCX. При габаритах 24 х 32 х 2.1 мм они могут поддерживать до 2 Тбайт данных.

    Передний край научного прогресса

    Все носители, с которыми мы имели дело до этого момента, были из мира не живой природы, но давайте не забывать, что самый первый накопитель информации, с которым мы все имели дело это мозг человека.

    Принципы функционирования нервной системы в общих чертах на сегодня уже ясны. И как бы это не могло звучать удивительно, физические принципы работы мозга вполне сопоставимы с принципами организации современных ЭВМ.
    Нейрон – структурно функциональная единица нервной системы, она и формирует наш мозг. Микроскопическая клетка, весьма сложной структуры, являющаяся фактически аналогом, привычного нам, транзистора. Взаимодействие между нейронами происходит благодаря различным сигналам, которые распространяются с помощью ионов, в свою очередь генерирующих электрические заряды, таким образом создавая не совсем обычную электроцепь.

    Но еще более интересным является сам принцип работы нейрона, как и его кремниевый аналог, эта структура зыблется на бинарном положении своего состояния. К примеру, в микропроцессорах за условный 1 / 0 принимают разницу уровней напряжения, нейрон в свою очередь обладает разностью потенциалов, фактически он в любой момент времени может обретать одно и двух возможных значений полярности: либо «+», либо «-». Существенное отличие нейрона от транзистора состоит в граничной скорости первого обретать противоположные значения 1 / 0. Нейрон в следствии своей структурной организации, в которую не будем вдаваться через чур подробно, в тысячи раз инертней от своего кремниевого собрата, что естественно сказывается на его быстродействии – количестве обработки запросов за единицу времени.

    Но не все так печально для живых существ, в отличии от ЭВМ где выполнение процессов осуществляется в последовательном режиме, миллиарды нейронов, объеденных в мозг, решают поставленные задачи параллельно, что дает целый ряд преимуществ. Миллионы этих вот низкочастотных процессоров вполне успешно дает возможность, в частности человеку, взаимодействовать с окружающей средой.

    Изучив структуру человеческого мозга, научное сообщество пришло к выводу – фактически головной мозг является цельной структурой, в которую уже входят и вычислительный процессор, и моментальная память, и память долговременная. В силу самой нейронной структуры мозга между этими аппаратными составными четких, физических границ нет, лишь розмытые зоны спецификации. Такое утверждение подтверждается десятками прецедентов из жизни, когда в силу определенных обстоятельств людям удаляли часть мозга, вплоть до половины общего объема. Пациенты после таких вмешательств, кроме того, что не превращались в «овощ», в некоторых случаях, со временем, восстанавливали все свои функции и счастливо доживали до глубокой старости, тем самым являясь живим доказательством глубины гибкости и совершенства нашего мозга.

    Возвращаясь к теме статьи, можем прийти к интересному выводу: структура мозга человека фактически схожа с твердотельным накопителем информации, о котором речь шла чуть выше. После такого сравнения, помня о всех его упрощениях, мы можем задаться вопросом, какой же объем данных в таком случае может разместится в этом хранилище? Может быть опять же к удивлению, но мы можем получить вполне однозначный ответ, давайте же произведем расчет.

    В результате проведенных в 2009 году научных экспериментов нейробиологом, доктором Бразильского университета в Рио-Де-Жанейро – Сюзанной Геркулано-Хаузел, было установлено, что в среднем человеческом мозге, весом около полтора килограмма, можно насчитать приблизительно 86 миллиардов нейронов, напомню, ранее ученные считали, что эта цифра для среднего значения равняется 100 миллиардам нейронов. Отталкиваясь от этих цифр и приравняв каждый отдельный нейрон фактически к одному биту, мы получим:

    V = 86 000 000 000 бит / (1024 * 1024*1024) = 80.09 гбит / 8 =10.01 гигабайт

    Много это или мало и насколько может быть конкурента эта среда для хранения информации? Сказать пока весьма сложно. Научное сообщество с каждым годом все больше нас радует продвижением в изучении нервной системы живых организмов. Можно даже встретить упоминания об искусственном внедрении информации в память млекопитающих. Но по большему счету секреты мышления мозга пока еще остаются для нас тайной.

    Итог

    Хотя в статье были представлены далеко не все виды носителей данных, коих огромное множество, наиболее характерные представители нашли в ней место. Подводя итог представленного материала можно четко проследит закономерность – вся история развития носителей данных базируется на наследственности этапов, предшествующих текущему моменту. Прогресс последних 25 лет в сфере носителей данных крепко опирается на полученный опыт, как минимум, последних 100…150 лет, при этом скорость роста емкости носителей за эти четверть века возрастает в геометрической прогрессии, что является уникальным случаем на протяжении всей известной нам истории человечества.

    Не смотря на кажущеюся нам сейчас архаичность аналоговой регистрации данных, вплоть до конца ХХ века это был вполне конкурентный метод работы с информацией. Альбом с качественными изображениями мог вмещать в себе гигабайты цифрового эквивалента данных, которые до начала 1990-х просто физически было невозможно разместить на столь же компактном носителе, не говоря уже об отсутствии приемлемых способов работы с такими массивами данных.

    Первые ростки записи на оптические диски и стремительное развитие накопителей HDD конца 1980-х, только за одно десятилетие сломили конкуренцию множества форматов аналоговых записей. Хотя первые музыкальные оптические диски и не отличались качественно от тех же виниловых пластинок, имея 74 минуты записи против 50-60 (двухсторонняя запись), но компактность, универсальность и дальнейшее развития цифрового направления ожидаемо, окончательно похоронило аналоговый формат для массового использования.

    Новая эра носителей информации, на пороге которой мы стоим, может существенно повлиять на мир, в котором мы окажемся через 10…20 лет. Уже сейчас передовые работы в биоинженерии дают нам возможность поверхностно понимать принципы работы нейронных сетей, управлять в них определенными процессами. Хотя потенциал размещения данных на структурах схожих с мозгом человека, не так уж и велик, есть вещи, про которые не стоит забывать. Само функционирование нервной системы все еще довольно загадочно, как следствие малой ее изученности. Принципы размещения и хранения в ней данных уже при первом приближении очевидно, что действуют по несколько другим законом, нежели это будет справедливо к аналоговому и цифровому методу обработки информации. Как и при переходе от аналогового этапа развития человечества к цифровому, при переходе к эре освоения биологических материалов, два предыдущих этапа сослужат роль фундамента, некого катализатора для очередного скачка. Необходимость активизации на биоинженерном направлении была очевидна и ранее, но только сейчас технологический уровень человеческой цивилизации поднялся до того уровня, когда подобные работы действительно могут увенчаться успехом. Поглотит ли этот новый этап развития ИТ технологий этап предыдущий, как мы уже имели честь - это наблюдать, или будет идти параллельно, предсказывать рано, но то что он радикально изменит нашу жизнь – очевидно.

    Современному человеку нравится быть мобильным и иметь при себе различные высокотехнологичные устройства, облегчающие жизнь, да и, что там скрывать, делающие ее более насыщенной и интересной. И появились-то они – миниатюрные, удобные, цифровые – всего за последние 10-15 лет благодаря интенсивному развитию . Однако новые технологические решения подразумевают не только уникальные системы обработки, но и все более емкие «хранилища» информации, создаваемые с использованием все новых физических принципов записи. Проблема хранения информации встала перед человечеством еще несколько тысячелетий назад – вспомните хотя бы наскальную живопись, древние иконы или письменность.

    По аналогии с обычной письменностью первые устройства хранения информации использовали бумажные или картонные носители – так называемые перфокарты и перфоленты . Хранение информации в них осуществлялось с помощью перфоратора, пробивавшего дырки в определенных местах, а информация считывалась специальным оптическим устройством и поступала в обработку. Однако увеличение производительности компьютеров в скором времени потребовало увеличения банков данных, а расход бумаги только одной ЭВМ повысился до полутонны в день. Естественно, так дальше продолжаться не могло, и в декабре 1952 года корпорация IBM показала миру первые устройства хранения информации на магнитной ленте. Магнитные ленты, знакомые многим по аудио- и видеокассетам, хранят данные в виде непрерывно изменяющихся аналоговых сигналов. Это сравнительно дешевый, но медленный носитель информации. Тем не менее, в мощных компьютерах для хранения больших объемов данных часто используют высокоскоростные многодорожечные магнитные ленты, удобные для резервного копирования всей информации с дисков компьютерных систем. С развитием вычислительной техники потребовался унифицированный цифровой формат хранения данных, в качестве которого был выбран двоичный код, а минимальная ячейка информации была названа битом. Этот формат приобрел всемирную популярность, практически полностью вытеснив аналоговую запись. Кодирование символа (буквы алфавита, знаков препинания и т.д.) сегодня осуществляется 8 битами или байтом: один байт хранит в себе один из 256 возможных символов. Большинство современных цифровых носителей информации основывается на схемах магнитной, оптической, электронной и комбинированной (магнито-оптической, магниторезистивной и т.д.) записи информации.

    Первым цифровым носителем информации стал магнитный дисковый накопитель (IBM RAMAC, 1956 г. ) являвшийся компромиссным решением между магнитной лентой и граммофонной пластинкой. Даже чтение магнитных дисков во многом аналогично считыванию сигнала с грампластинки, с той лишь разницей, что в качестве считывающего устройства в магнитном накопителе используется магниторезистивный сенсор, а не игла фонографа. Для увеличения емкости магнитного накопителя он содержит не один, а сразу стопку дисков. Как правило, пластины изготавливают из алюминия, стекла или керамики и наносят на них слои высококачественного ферромагнетика. Для считывания информации головка перемещается на некотором расстоянии от поверхности пластины (около 10 нм), которая вращается с постоянной скоростью (до 15 тыс. оборотов в минуту), преобразуя магнитное поле в электрический ток. Чем меньше это расстояние, тем больше точность считывания, и тем выше может быть плотность записи информации. Магнитное покрытие диска разбито на множество мельчайших областей спонтанной намагниченности (битов), собственные магнитные моменты которых ориентируются в соответствии с направлением прикладываемого магнитного поля и «замораживаются» в таком положении после прекращения действия внешнего поля, сохраняя записанную на диск информацию (Рис.2,2). Сама среда записи уже давно является наноструктурированной – она состоит из магнитных частиц сплава CoPtCrB размером 10-15 нм. К сожалению, разработчикам магнитных дисков пока не удалось достичь воспроизводимой записи на отдельные частицы, и в современных устройствах на один бит информации отводятся весьма значительные площади: ширина магнитной “дорожки” составляет порядка 1 мкм, а длина области, соответствующей одному биту - 50-70 нм. Тем не менее, достигнутая на сегодня плотность записи просто поражает воображение: 10 10 бит (десять милиардов бит) содержатся всего на одном квадратном сантиметре поверхности диска! При этом стоимость 1 гигабайта на магнитном носителе составляет менее 0,5 доллара США! Сегодня основная борьба за дальнейшее усовершенствование устройств магнитной записи состоит в преодолении так называемого «суперпарамагнитного предела». Казалось бы, чем меньше магнитные частицы, тем плотнее они могут быть упакованы, и тем выше будет плотность записи. Однако, начиная с какого-то размера, частицы становятся настолько маленькими, что не могут поддерживать длительный эффект намагничивания ввиду возрастания тепловых колебаний магнитного момента (см. «суперпарамагнетизм»). Но не стоит расстраиваться – магнитные системы хранения информации еще не скоро достигнут своего предела, установленного природой и открывающего новую – голографическую – главу в истории устройств данных.

    Основным конкурентом устройств магнитной записи на рынке являются оптические диски . В 1982 году фирмы Sony и Philips завершили работу над форматом CD-аудио (Compact Disk), открыв тем самым эру цифровых носителей на компакт-дисках. Трудно сейчас найти человека, у которого не было бы нескольких CD с музыкой или компьютерными играми. При оптическом принципе работы этих дисков чтение и запись информации осуществляется лазером с длиной волны от 780 нм для CD и 650 нм для DVD до 405 нм для новых Blu-ray дисков. В оптической записи данные кодируются в виде последовательности отражающих и не отражающих участков, которые интерпретируется как единица и ноль, соответственно. Максимальный объем информации для оптических дисков составляет от 680 Мбайт (СD) до 17 Гб (DVD) при массе всего лишь 14-33 грамм. Однако основным недостатком оптической записи все еще остается низкая скорость чтения/записи информации, составляющая менее 100 Мбайт/с для Blu-ray дисков (по сравнению с 1,5 Гб/с в магнитных накопителях). И все же, недавно были анонсированы принципы создания первых голографических HVD (Holographic Versatile Discs) дисков емкостью до 4 Tбайт (тирабайт), практически не уступающих по скорости доступа магнитным HDD.

    Сравнительно недавно (в 1988 году) компания Intel разработала еще один способ хранения данных на основе микросхем Flash-памяти , запоминающая ячейка которой представляет собой транзистор с двумя изолированными затворами: управляющим и плавающим, способным удерживать электроны, то есть заряд. При программировании микросхемы между коллектором и эмиттером создается канал – поток электронов, некоторые из которых – высокоэнергетические – преодолевают слой изолятора и попадают на плавающий затвор, где могут храниться в течение нескольких лет. Низкий заряд на плавающем затворе соответствует логической единице, а высокий – нулю. При чтении эти состояния распознаются путем измерения порогового напряжения транзистора. Когда Вы стираете с флэшки какой-либо файл, на управляющий затвор подается высокое отрицательное напряжение, и электроны с плавающего затвора переходят (туннелируют) на исток. Кроме флэш-памяти в настоящее время разрабатываются новые технологии создания постоянных электронных запоминающих устройств. Флеш-память имеет массу преимуществ, включая высокую скорость доступа, и отсутствие задержек на механическое движение диска и считывающего устройства, однако стоимость 1 Гб электронного носителя более чем в 50 раз превосходит аналогичную величину для магнитной записи, и составляет более 25 долларов США. Промышленные гиганты многих стран мира пытаются использовать магнитные, туннельные, ферро- и пьезоэлектрические эффекты, а также фазовые превращения для создания электронных устройств сохраняющих информацию при отключении устройства от источника тока.

    Большие перспективы имеет направление, связанное с созданием магнитных нанокомпозитов . Во многих случаях в качестве матриц для их создания используют различные пористые материалы, размер полостей которых лежит в нанометровом диапазоне. В эти поры можно вводить различные соединения, а затем, после химической модификации, получать частицы искомого материала, размер и форма которых повторяют форму полостей матрицы, а ее стенки предотвращают их агрегацию и защищают от воздействий внешней среды. Этот подход позволяет синтезировать наночастицы самых различных химических соединений: металлов и сплавов, оксидов и халькогенидов.

    С точки зрения уникальных физических свойств особенно привлекательны наночастицы, обладающие анизотропной формой. Использование нанореакторов открывает широкие возможности для их синтеза и контроля морфологии: в слоистых матрицах можно получать двумерные наночастицы, а в матрицах с вытянутыми порами – одномерные. При этом можно также достичь ряда практически - важных характеристик: варьируемый размер пор (1-100 нм), однородность распределения пор по размеру, упорядоченность пор, создание анизотропных систем, изолированность каналов-пор, решение проблемы агрегации и химической изоляции наночастиц. Преимущества использования жидкокристаллических темплатов, формирующихся в системе ПАВ-вода в определенном диапазоне температур и концентраций, связаны с формированием упорядоченной системы однородных по размеру пор с контролируемым диаметром. Гидролиз алкоголятов с последующим отжигом приводит к формированию реплики жидкого кристалла в оксидной матрице, которая тем самым становится мезопористой. Мезопористый диоксид кремния, обладающий упорядоченной гексагональной структурой открытых цилиндрических пор, диаметр которых можно варьировать от 2 до 50 нм, является одной из перспективных матриц для получения одномерных наночастиц. Мезопористый диоксид кремния с диаметром пор от 2,1 до 3,7 нм был использован (на ФНМ МГУ) для получения нанонитей железа, обладающих ферромагнитными свойствами при комнатной температуре. Следует отметить, что при уменьшении размеров частиц ферромагнетика при достижении определенной критической точки происходит переход в суперпарамагнитное состояние, в котором магнитные моменты частиц разупорядочиваются из-за тепловых флуктуаций. Для сферических частиц железа этот размер составляет около 5 нм. Однако если наночастицы имеют нитевидную форму, происходит фиксация магнитного момента вдоль длинной оси частицы и магнитноупорядоченное состояние может сохраняться, если эти наночастицы закреплены в системе упорядоченных пор (система перпендикулярной записи информации ).

    Другой интересной матрицей для получения одномерных наночастиц является пористый оксид алюминия , образующийся при анодном окислении высокочистого полированного металлического алюминия в ряде электролитов. Этот материал имеет систему цилиндрических пор, располагающихся параллельно друг другу перпендикулярно плоскости пленки, причем при соблюдении определенных условий массивы этих пор могут обладать гексагональным упорядочением. Мезопористый оксид алюминия, полученный анодным окислением алюминия, уникален тем, что в процессе его получения можно контролировать основные микроструктурные параметры: расстояние между центрами соседних пор зависит от электролита и напряженности тока на электродах в ходе окисления, протяженность пор (толщина слоя) зависит от времени травления, а диаметр пор можно увеличивать путем дополнительного растравливания. Одним из методов получения магнитных нанокомпозитов в такой матрице является электрохимическое осаждение в поры магнитных металлов, например, никеля. При этом, в отличие от пленок мезопористого диоксида кремния, магнитные наночастицы располагаются в матрице не параллельно, а перпендикулярно поверхности подложки. Такой образом, становится возможным контролировать количество осажденного металла, варьировать длину получаемых частиц, а также их ориентацию относительно подложки.

    Естественно, что каждый из существующих способов хранения информации обладает своими преимуществами и недостатками. И все же технологии не стоят на месте, и каждый год в согласии с «законом Мура» средняя плотность записи всех типов устройств возрастает в ~1,5 раза. Какая же из технологий является оптимальной, и будет доминировать на рынке через 10 лет? Время покажет …