Чтобы Интернет не обрушился под нарастающей тяжестью информации,
нужно радикально изменить способы обработки данных в сети, считает глава
Bell Labs Research Маркус Хофманн (Marcus Hofmann).
До конца текущего года количество смартфонов, планшетников и прочих интернет-ориентированных гаджетов превысит численность населения Земли. Но, пожалуй, существеннее то, что все более быстрые и мощные мобильные устройства, появляющиеся на рынке, производят и потребляют беспрецедентные объемы цифрового контента. Согласно недавно опубликованному годовому отчету компании Cisco, одного из мировых лидеров в области сетевых технологий, объем информации, передаваемой во всем мире через мобильные устройства, в прошлом году вырос на 70%. Однако мощность существующей в мире сетевой инфраструктуры конечна, что заставляет нас строить догадки: когда же мы достигнем предела пропускной способности и что мы будем тогда делать?
Конечно, есть способы увеличить производительность сети: например, можно проложить новые кабели, напичкать их большим количеством цифрового оптоволокна или разгрузить трафик через вторичные спутниковые сети, но эти меры всего лишь отсрочат наступление неизбежного. Выход— сделать общую инфраструктуру сети более «умной». Для этого потребуются два основных компонента: компьютеры и иные устройства, которые смогут предварительно обрабатывать и, возможно, фильтровать или агрегировать контент перед тем, как выложить его в сеть, а также такая сеть, которая «понимает», что делать с контентом, а не просто тупо поглощает его в виде бесконечного неразличимого потока битов и байтов.
Чтобы выяснить, можно ли добиться подобных технологических прорывов, журнал Scientific American побеседовал с Маркусом Хофманном, который возглавляет фирму Вей Labs Research в городе Холмделе, штат Нью-Джерси, США. Это научно-исследовательское подразделение компании Alcatel-Lucent, которая в том или ином качестве занималась разработкой транзисторов, лазеров, ПЗС-матриц и множеством других передовых технологий XX в. Хофманн (он пришел в Вей Labsв 1998 г., получив докторскую степень в Германии, в Университете Карлсруэ) и его команда считают, что нужно двигаться именно по пути построения клиент-ориентированных информационных сетей, потому что такой подход обещает увеличение мощности Интернета за счет развития его интеллектуальной надстройки. Предлагаем вам выдержки из этого интервью.
— Откуда известно, что мы подходим к пределу возможностей современной телекоммуникационной инфраструктуры?
— Признаки этого едва заметны, но они есть. Вот вам пример из личной жизни. Я пользуюсь скайпом, чтобы «живьем» показать моим родителям в Германии, как мои дети играют в хоккей. Но иногда в самые захватывающие моменты видео тормозит. В целом это происходит не так уж часто, но с некоторых пор — все чаще и чаще. Это признак того, что сеть начинает испытывать стресс от того объема данных, которым ее нагружают.
Мы знаем, что сама природа устанавливает определенные пределы: каналы передачи информации имеют ограниченную пропускную способность. Этот феномен называется нелинейным пределом Шеннона (по имени математика Клода Шеннона, работавшего в Bell Telephone Laboratories), и он указывает нам границу развития технологий. Мы уже почти достигли этой границы, оставшийся запас находится в пределах двоичного порядка. Другими словами, когда объем сетевого трафика удвоится — а это может произойти в ближайшие четыре-пять лет, — предел Шеннона будет превзойден. Наступит фундаментальный информационный затор. Этот предел принципиально нельзя отодвинуть, подобно тому как мы не можем увеличить скорость света. Поэтому нам придется искать пути для продолжения необходимого технологического роста с учетом указанных пределов.
— Как сделать, чтобы Интернет не уперся в этот предел?
— Наиболее очевидный путь — увеличивать пропускную способность сети путем прокладки дополнительного оптоволокна. Например, вместо одного трансатлантического оптоволоконного кабеля иметь два, пять или десять. Это подход, так сказать, «в лоб», но его реализация обойдется очень дорого: нужно копать землю для прокладки световодов, устанавливать многочисленные опто усилители, приемники-передатчики и т.д. Чтобы снизить затраты, необходимо не только объединить множество информационных каналов в едином оптоволокне, но и миниатюризировать многочисленные приемники и передатчики с помощью новых технологий, в частности из сферы интегральной оптики. Такой подход называется «пространственным уплотнением».
Впрочем, только лишь «разогнать» производительность существующей инфраструктуры будет недостаточно, чтобы удовлетворить растущие коммуникационные потребности. Нужна такая сетевая инфраструктура, которая больше не воспринимает необработанные данные всего лишь как биты и байты, но различает в них элементы информации, значимые для пользователя компьютера или смартфона. Хотите ли вы знать, какие сегодня температура, скорость ветра и атмосферное давление, или вам просто нужно узнать, как одеться по погоде? Вот для этого и строится информационная сеть.
— Чем такая сеть отличается от сегодняшнего Интернета?
— Многие называют Интернет «тупым», хотя мне не нравится это определение. Что изначально дало толчок развитию Интернета? Необходимость обмениваться документами и данными не в режиме реального времени. Главным требованием к системе была ее устойчивость — способность продолжать работу, даже когда один или более ее узлов (компьютеров, серверов и т.д.) вышел из строя. Сеть была предназначена для восприятия данных как простого потока цифровой информации, а не для интерпретации значимости этих данных.
Сегодня мы используем Интернет для приложений, требующих работы в реальном времени, будь то просмотр видеопотока или онлайн-телефония. В то же время мы генерируем гораздо большие объемы данных. Сети приходится больше «знать» об информации, которая в нее поступает, чтобы лучше спланировать ее доставку и таким образом функционировать более эффективно. Например, если я в своем офисе провожу видеоконференцию и отворачиваюсь от экрана монитора, чтобы переговорить с только что вошедшим ко мне человеком, в настройках конференции должен быть параметр: «Приостановить передачу изображения до тех пор, пока я снова не повернусь к экрану». Система распознает тот факт, что я отвлекся, и не будет тратить сетевые ресурсы, пока я с кем-то разговариваю в моем кабинете.
— Что нужно сделать, чтобы сеть больше «знала» о передаваемой информации?
— Существуют разные походы. Если вы хотите больше знать о данных, передаваемых в сети (например, чтобы отправить запрос на загрузку веб-страницы ближайшему серверу), то используете программу, которая «подглядывает» в пакет данных: это называется «глубоким инспектированием пакета». Представьте себе обычное бумажное письмо, которое вы отправляете по почте в конверте с адресом. Почтовой службе все равно, что в письме, ей нужен только адрес.
«Нужна такая сетевая инфраструктура, которая больше не воспринимает необработанные данные всего лишь как биты и байты, но различает в них элементы информации, значимые для пользователя компьютера или смартфона» . При глубоком инспектировании пакета программа-инспектор дает сети указание «распечатать конверт» сданными и прочитать по крайней мере часть содержимого. Но таким путем можно получить лишь ограниченную информацию о содержании пакета, причем эта работа требует большой производительности. Кроме того, если данные в пакете зашифрованы, то глубокое инспектирование бесполезно.
Лучшим вариантом было бы классифицировать данные и выдать сети инструкции по обработке разных типов данных. Можно ввести регламент, устанавливающий, скажем, приоритет видеопотока перед электронной почтой, для этого даже не обязательно заглядывать в содержание видео или почты. Сеть просто будет учитывать эти дескрипторы при маршрутизации пакетов.
— Но данные, которые путешествуют по Интернету, уже снабжены дескрипторами, почему бы их не использовать?
— Все зависит от уровня обработки этих дескрипторов. Например, пакеты данных, которые используют протокол Интернета, имеют заголовок с адресами отправителя и получателя. Их можно считать дескрипторами, но они несут очень ограниченную информацию. Они не скажут, к какому веб-сайту обращается пользователь. По ним не ясно, относятся ли данные к видеопотоку в реальном времени или их можно подвергнуть пакетной обработке. Я же веду речь о более содержательных тегах верхнего уровня, или метаданных, которые частично могут быть отображены в тегах нижнего уровня.
— Не получится ли так, что управление потоками данных в сети посредством приоритетов приведет к тому, что сеть будет отдавать предпочтение определенному типу трафика за счет других?
— Но эта ситуация не отличается от того, что мы уже имеем, скажем, на городских дорогах. Когда мы слышим сирену, всем нам полагается принять вправо, освободив проезжую часть для машины скорой помощи, чтобы та проехала как можно быстрее, без помех и, возможно, спасла чью-то жизнь. В данном случае сирена выполняет функцию дескриптора: пока мы признаем, что она указывает на экстренный случай, нам необязательно знать, кого везет скорая помощь и что случилось с этим человеком, — мы просто ведем себя соответствующим образом. Может быть, мы должны в случае крайней необходимости дать право преимущественного «проезда» и определенным пакетам данных в Интернете? Речь идет всего лишь о понятных правилах игры и общепринятых манерах поведения — что на дорогах, что в сети.
— Даже если «умная» сеть сможет перемещать данные более рационально, все равно сетевой контент экспоненциально растет. Как уменьшить поток данных, поступающих в сеть?
— Смартфоны, компьютеры и прочие устройства порождают большое количество первичных данных, которые затем поступают в специализированные центры хранения и переработки информации. Пересылка данных через весь мир в некий пункт централизованной переработки не решит проблемы экспоненциального роста контента в будущем. Вместо этого мы могли бы перейти к такой модели, при которой данные обрабатываются еще до того, как попадают в сеть. Например, имея камеру видеонаблюдения в аэропорту, вы программируете эту камеру (или небольшой сервер, управляющий группой камер) для распознавания лиц таким образом, что само распознавание будет выполняться на месте с помощью базы данных, хранящейся в самой камере или на сервере, и только потом информация будет уходить в сеть.
— Как при создании информационных сетей решается проблема конфиденциальности данных?
— Существующая сегодня дихотомия в отношении защиты данных такова: ты или сохраняешь конфиденциальность— или практически полностью отказываешься от нее, чтобы получить доступ к определенным персонифицированным сервисам, как, например, музыкальные поисково-рекомендательные службы, основанные на предпочтениях подписчика, или скидочные купоны для интернет-магазина. Нужно найти какую-то золотую середину, чтобы пользователь сам распоряжался своими данными.
Главная проблема заключается в том, что эта «середина» должна быть достаточно понятной пользователю. Посмотрите, как сложно сегодня обеспечить конфиденциальность в социальных сетях. Ваши снимки оказываются в фотопотоках у людей, которых вы даже не знаете. Должен быть цифровой аналог ручки управления, который позволит регулировать соотношение уровня конфиденциальности и уровня персонификации. Чем больше я сообщаю о себе информации, тем более персонифицированными будут сервисы, которые я получаю. Но я смогу повернуть эти ручку и назад: если я пожелаю оставить о себе менее подробную информацию, я все равно смогу получать адресные предложения, разве что менее целевые.
— Открытость Интернета делает его уязвимым для кибератак, поэтому проблема обеспечения безопасности в основном перекладывается на пользователей компьютеров и других устройств, подключенных к Сети. Какое влияние на безопасность в Интернете окажут информационные сети?
— Подход, связанный с построением информационных сетей, придает глобальной инфраструктуре более высокую осведомленность относительно характера сетевого трафика, что может оказаться полезным для распознавания и сдерживания кибератак. Но здесь могут возникнуть другие осложнения. Я рассчитываю — и даже надеюсь — на то, что потоковые данные во все больших масштабах будут передаваться в зашифрованном виде для обеспечения их подлинной безопасности и конфиденциальности. Конечно, из зашифрованных данных будет трудно извлечь какие-либо метаданные для сети. Это серьезная задача для разработчиков: она потребует создания новых алгоритмов шифрования, которые одновременно и сохраняют секретность, и позволяют производить определенные математические операции над зашифрованными данными.
Представим, например, что размер дохода каждой семьи в некоем регионе хранится в зашифрованном виде на сервере «облака» и никто, кроме авторизованного пользователя, не сможет получить эти данные. Было бы полезным, если бы эти цифры были закодированы так, чтобы программа, запущенная в «облаке», смогла вычислить средний семейный доход для данного региона — без расшифровки конкретного домовладения, исключительно путем обработки кодированных данных.
Есть и другой подход: разработать такие хитрые способы управления шифрами, чтобы ими можно было делиться без ущерба для безопасности. В случае успеха ни один из этих подходов не должен осложнить пользователю жизнь. В этом и проблема, и ключ к ее решению. Сколько пользователей сегодня реально занимаются шифрованием своей электронной почты? Почти никто, потому что это лишняя работа.
Внимание : во избежание нарушения авторских прав, при частичном или полном копировании статьи - ссылка на материал обязательна!