Телеком: Репортажи. Лаборатория Ericsson в Москве. Часть 3. Виртуализация

Продолжим экскурсию по московской Лаборатории Ericsson на Ленинградском шоссе д.16А, стр.2. Первую часть репортажа посвящнную системе питания и радиорешениям) можно найти здесь. Вторая часть (коммутация пакетная кора, РРЛ MiniLink) - здесь. Третья часть - о виртуализации и работе с решениями других вендоров.

Тренд на виртуализацию уже несколько лет, как не новость. Решения Ericsson виртуализованы примерно на 90%. Остаются решения нативные, которые много где стоят, и дублирующие их решения виртуализации. Они также уже стоят кое-где в России. Компания Ericsson активно занимается этой темой. 

На сегодня возможны разнообразные варианты. Можно купить full stack решений Ericsson - когда и платформа и среда виртуализации - от одного поставщика. Можно взять нашу платформу, а приложения - от других вендоров. Или промежуточный вариант, когда аппликации от Ericsson, а платформа от вендора, с которым шведский вендор сотрудничает, например, компаний HP, Dell. Тогда поверх ставится среда виртуализации Ericsson и можно поставить IMS-решение, например, для VoLTE, виртуальную UDC и виртуальную Packet Core.     


На фото платформа виртуализации Ericsson Hyper scale DataCenter System 8000 (HSD). Со SLED серверами половинной ширины (SLED - Single Large Expensive Disk).


Если открыть крышку, то с фронтальной части ничего особо интересного нет. USB-порты, порт для техобслуживания.  


Интереснее зайти с тыльной стороны. 

Такую систему можно наращивать по мере надобности. Она управляется полностью программно.  С помощью ПО можно объединять "железо" в единый data center. Можно разбить его "виртуально" на различные части. Например, в одной части реализовать open stack, в другой организовать VMWare, а третью часть оставить нативной, без виртуализации. 

Понятно, что такие вещи неинтересно организовывать на шести серверах, это касается инсталляций с большим числом серверов. Софт компании позволяет управлять большим дата-центром на таком железе. 


Каждая из "коробочек" содержит в себе подключения 8 портов до 100 Гбит/c оптики. Подключения делаются специальным "толстым" оптическим кабелем, который затем раздваивается. Это позволяет затем поделить 100 Гбит/c на 10 * 10 Гбит/c или использовать его как канал на 100 Гбит/c. 

CMU - это контроллер SLEDа. Этот контроллер, во-первых, позволяет организовать работу ПО виртуализации о котором выше говорилось, вторая особенность этой платформы - реализация архитектуры Intel. Так называемая Rack Scale архитектура.  В чем ее суть в двух словах. У вас есть память, процессоры, жесткие диски в каждом стандартном сервере. Но вы, например, хотите менять память раз в 2 года, а процессоры - раз в десять лет, а жесткие диски, например, каждые полгода. Сейчас или надо разбирать сервера, что неудобно, если у вас их много, либо заменяете сервер целиком, но тогда не получается долго использовать элементы, которые можно использовать долго, экономя на более длительном использовании ряда компонентов. 

Архитектура Intel позволяет организовать построение data center так, что в одной стойке будет только память, в других - жесткие диски, в третьих - процессоры. Или в одной жесткие диски, в другой процессоры и память. Это позволяет отдельно управлять жизненным циклом отдельных компонентов. Хотите заменить память, заменяете стойку с памятью, а процессоры у вас еще 3 года поработают. Это дает большую экономию на железе. Все это управляется софтово, единым командным центром.  

В московской лаборатории Ericsson эти возможности не используются, поскольку здесь не data center. Здесь стоят приложения BSS (управления бизнесом) на этих серверах.

Ericsson также работает с аппаратными платформами других производителей. На фото показана так называемая "корзина" от HP (Hewlett-Packard). 




Каждая такая "корзина" содержит 16 blade-серверов. Каждый сервер под отдельную задачу.


С помощью виртуализации их можно объединить в единый пул, разбить на виртуальные машины и использовать по-сути в отрыве от железа.

Это позволяет Ericsson выполнять пожелания клиентов, которые, например, говорят, что у них есть своя платформа, но им нужны наши приложения. В Ericsson готовы такие решения тестировать. Есть платформы, с которыми решение Ericsson работает "из коробки" и есть те, которые в компании готовы валидировать, т.е. проводить тестирование, а затем обеспечивать работу по заданным показателям. И, разумеется, есть end-to-end решение платформа+приложения от Ericsson.



Особенность лаборатории - четкая маркировка каждого элемента и соответствующая документация. Инвентаризационная ведомость позволяет в любой момент времени знать, где что стоит. Данные ведомости через файерволл доступны удаленно. 



Это позволяет подключать к решению задач в лаборатории "мозги" из любой страны, где есть эксперты Ericsson. Таблица дает возможность удаленно находить нужный сервер, например, и настраивать на нем то или иное приложение. В частности, есть таблица связности всех портов IP-backbone. 



IP backbone объединяет лабораторию в единый живой организм с возможностью удаленного доступа. Это массив свитчей (роутеров) в которые приходят подключения от всех элементов инфраструктуры, установленных в лаборатории, базовых станций, минилинков, MSS, опорной сети, BSS и так далее. Соответственно стойка обеспечивает непрерывную связность всех элементов. Также обеспечивается связность между оборудованием лаборатории и 6-м этажом, где расположен демо-центр. Это позволяет собрать в демо-центре любую схему. Часть работает по оптике. часть работает на витую пару.



Есть также оконечные свитчи (Leaf Spine) в каждой стойке, обеспечивающие подключение того, что есть в данной стойке. Свитч, в свою очередь, подключен к основному backbone. Здесь также смонтирован файерволл, обеспечивающий контроль внешнего доступа в лабораторию и из лаборатории. Также это позволяет для тестирования вывозить к заказчику только часть оборудования, оставляя другое необходимое оборудование в лаборатории. Например, можно привезти к заказчику базовую станцию и подключить его к нашему оборудованию в лаборатории через IPSec (или любой другой защищенный) туннель. Это в разы сокращает время развертывания. В общем, речь идет о большой гибкости к тестированию в интересах заказчика.

На этом мой визит в Лабораторию Ericsson завершился. Надеюсь, вам было интересно читать репортаж о ней.

----

За новостями телекома и IT удобно следить в телеграм-канале abloud62. Телеграм-трансляции читайте в канале @abloudRealTime.  

Комментариев нет:

Отправка комментария

Подписывайтесь на мой Youtube-канал

и на мой Telegram-канал

Популярные сообщения

Подписаться на email - рассылку

Translate