Добро пожаловать на сайт, Гость! Регистрация RSS

Воскресенье, 19.05.2024
Главная » 2013 » Ноябрь » 21

Linux и её старики: почему ссыхается сообщество разработчиков Ядра?


Автор: Евгений Золотов  

Linux по-прежнему сильна. В этом легко убедиться, поставив новую версию любимого дистрибутива и насладившись свежими формами и идеями либо заглянув в софтверные новости, в среде которых свободная ОС если и не доминирует, то явно просматривается за значительной частью из них. Вот Raspberry Pi — работающая, конечно же, под «Линуксом» — празднует продажу двух миллионов плат, превзойдя на три порядка свой первоначальный план. Вот Valve Software готовит январскую демонстрацию Steam Machine — по сути, линуксовой игровой персоналки. Вот Samsung, устав от Google, играется с мобильной Tizen, которая в основе своей всё та же Linux.

А за всем этим великолепием незримо стоит Линус Торвальдс и сформированный по его инициативе и под его непосредственным контролем вольный коллектив разработчиков Ядра. Слово и желание Линуса сегодня значат так же много, как и раньше. Пожелал он обрезать ветку 3.х раньше обычного, на уровне 20-го релиза? Так, вероятно, и будет — а значит, уже через год мы получим ядро 4.0. Если верить самому Линусу, он просто хочет сделать нумерацию ядер удобней, избежать возни с бесконечными подверсиями, как это было с 2.x, растянувшейся на 15 лет. Но кое-кто называет его хитрым старым лисом: скорый выпуск версии 4 заставит разработчиков шевелиться, и Линус знает это. 

Линусу сорок три, и больше половины из них он посвятил Linux. Однако с возрастом, увы, приходит не только опыт, а и усталость. И основатель свободной ОС в этом смысле не одинок: среднестатистический девелопер Ядра заметно постарел, коллектив в целом ссохся. О проблеме впервые заговорили ещё в конце нулевых, но в последние месяцы вспоминают особенно часто.

Изначально, лет пять назад, «седина в бородах» ядерщиков была лишь забавным наблюдением, почти шуткой, которую время от времени травили журналисты, попавшие на очередную большую конференцию. Но время шло — и стало ясно, что выход девелоперов «на пенсию» не сулит ничего хорошего. Да, Ядро продолжает развиваться: 16 миллионов строк кода, десятки патчей ежесуточно, над последней версией трудились более тысячи человек. Однако состав сообщества качественно изменился и продолжает меняться в худшую сторону. Количественно это хорошо показано в простеньком исследовании, опубликованном не так давно компанией Bitergia.

Взяв за основу историю изменений линуксового ядра с 2005 года (базу Git) и понимая возраст участника как продолжительность его присутствия в проекте (то есть «молодой» вовсе не означает, что участник молод в действительности: просто к разработке Ядра он подключился сравнительно недавно), Bitergia нарисовала занимательный график. Вот он, выше, с поквартальной разбивкой «возрастов».

Выводы простые. Во-первых, абсолютная численность большинства «поколений» (в том числе «стариков», то есть тех, кто занимается Ядром дольше других, самая верхняя полоса) со временем уменьшается, сообщество становится меньше. Во-вторых, что особенно печально, ежеквартальный приток свежих сил («молодёжи») уменьшается тоже: если в начале наблюдений он измерялся сотнями человек, то теперь — только десятками. Если так пойдёт и дальше, ещё через десять лет приток новичков в ряды ядерщиков прекратится вовсе, а действующие участники не смогут поддерживать взятый темп и будут вынуждены сократить количество добавляемых в Ядро новшеств. Ситуация чем-то напоминает последние болячки Википедии (см. «Википедия против слабого пола»), и, как и там, точной причины не знает никто: если со «стариками» всё просто (естественный отток!), то пассивность «молодых» — пока загадка.

Торвальдс бреет бороду

Версий, конечно, много. Взять хотя бы квалификацию: чтобы влиться в число разработчиков Ядра, недостаточно простого желания и даже работоспособности, необходимо знать внутреннюю архитектуру Linux, нюансы её программирования, быть готовым принять стиль общения заслуженных девелоперов (то, что называют культурным барьером). Кто с ходу сможет удовлетворить этим требованиям? Да в LKML (Linux Kernel Mailing List — главная тусовка ядерщиков) страшно даже заглянуть, тысяча сообщений в сутки! Так что с тривиальных исправлений — тех самых, которых всегда бесчисленное множество и которые лично Линус считает самыми важными, — начинать на самом деле едва ли легче: новичку необходимо знать о Ядре слишком много.

А как получить эти знания? Ещё десять лет назад начинающий линуксоид становился системным администратором по необходимости, поскольку приходилось изучать и настраивать элементарные вещи — вроде звуковой и графической карты, подключения к Сети и прочего. Нынче всё это работает «из коробки». Да и программирование само по себе более не привлекает молодёжь. Какой же смысл открывать в вузах образовательные курсы для желающих писать патчи в Linux (как пробуют делать на Западе), если сама идея написания кода утратила обаяние, каким была окружена двадцать или десять лет назад? Для желающих познакомиться с Ядром уже есть отличные ресурсы (см., например, Linux Kernel Newbies), но само по себе их существование проблемы потери интереса не решает!

Линус Торвальдс

Наконец, есть мнение, что лично Торвальдс и выстроенная им «корпоративная культура» отпугивают новичков. Простого финского парня, который был рад любой помощи, давно нет. Есть жестокий босс, нещадно выговаривающий за ошибки. Поведение Линуса на людях давно уже вызывает толки (см. «Куда дальше, Линус?») и хоть к новичкам он, говорят, снисходителен, атмосферу в сообществе ядерщиков (которую он как основатель проекта, несомненно, и помог сформировать) благожелательной на назовёшь. Хакеры считают, что так и должно быть, и с ними, по здравом размышлении, трудно не согласиться (в конце концов, речь о крупнейшем опенсорсном проекте планеты Земля, так что некачественный код должен быть забракован как можно раньше). Но попробуйте втолковать это новичкам — тем самым, которых уже не хватает! Так, может, пришло время сместить «великодушного диктатора», заменив его более способным человеком? Или сделать организованный форк и пойти своей дорогой? Пока ещё не поздно.

Посмотрим правде в глаза: ядро Linux уже развивается прежде всего корпорациями. Три четверти всей активности здесь генерируют люди, которым за это платят их работодатели. Не означает ли это, что мы теряем контроль над Ядром, что движется оно теперь в направлении, указываемом гигантами ИТ-бизнеса: IBM, Intel, Red Hat? Пока ещё, впрочем, «старики» вроде Линуса справляются с делягами, заставляют их работать наравне со всеми — отвечать на вопросы прямо, а не пресс-релизами. Но что будет, когда старики выйдут из игры? Не повторит ли Linux судьбу Android?

В статье использованы иллюстрации Thierry Ehrmann, John Dalton.
Категория: ИТ | Просмотров: 723 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Автор:Игорь Емельянов 

Современный дата-центр возможно виртуализовать практически полностью: абстрагировать от физической инфраструктуры сегодня можно и сети, и вычислительные ресурсы, и даже целые серверы. Но есть одна проблема, стоящая на пути к переходу в SDDC, или софтверно определяемый дата-центр. И, говоря о практически полной виртуализации ЦОДа, я имел в виду один из уровней физической инфраструктуры, который чрезвычайно плохо поддаётся абстракции, в основном из-за технологических недостатков. О проблемах с виртуализацией систем хранения данных мне довелось поведать в материале «Как хранилища данных тормозят прогресс дата-центров», опубликованном в «CIO» чуть более двух недель назад. Позволю себе небольшую самоцитату, дабы ввести вас в курс дела, перед тем как перейти к сути сегодняшней темы.

segate3

«Дальше началась виртуализация всего, что так или иначе виртуализовалось. И SDN, с которых мы начали, — это частный случай виртуализации одного из уровней дата-центра. Но если сети, серверы и прочие уровни подвергались абстракции без особых проблем, то сегодня фактором, серьезно сдерживающим развитие SDDC, является дисковое пространство — или, если хотите, хранилища данных. На этом уровне у идеологов программно-определяемых ЦОДов случилась заминка. Дело в том, что в области хранения данных за последние двадцать лет поменялось очень и очень немногое. Технологии, конечно, развивались, доступные объёмы дискового пространства, а также скорость считывания информации росли. Но системы хранения данных, по сути своей, были разработаны с прицелом на физическую инфраструктуру, а концепция абстракции ставит перед технологией нерешаемые вопросы. Вот и получается, что текущие технологии хранения данных далеки от тех стандартов, которые предъявляет виртулизованная среда».

Полагаю, что теперь вам совершенно ясно, каким образом хранилища данных замедляют темпы роста и развития дата-центров. Особенно это критично для облачных провайдеров, то есть тех, кто предоставляет услуги по модели IaaS, предлагая заказчику полностью виртуализованный ЦОД. Таким компаниям совершенно необходим абсолютно новый подход к передаче данных. Технология, которая позволит отделить СХД от файловой системы ОС и от вычислений в целом. И надо сказать, что такие технологии появляются. Однако вендоры настолько часто выпускают пресс-релизы о создании очередной прорывной технологии или даже изобретении рынка заново, что действительно интересные новинки зачастую пролетают мимо нашего поля зрения.

Впрочем, одной такой многообещающей технологией я не смог не заинтересоваться. Это платформа Kinetic Open Storage, созданная компанией из Купертино, но только не Apple, а Seagate. Основная задача платформенного решения в том, чтобы «научить» СХД эффективно обмениваться данными между собой, разгружая вычислительные узлы, насколько это возможно.

Работает Kinetic Open Storage следующим образом: жёсткие диски используют Ethernet как способ взаимосвязи, то есть они физически объединены посредством Ethernet, а не просто дополнены соответствующим контроллером. И данные перемещаются между дисками не с помощью файловой системы серверной ОС, а непосредственно от диска к диску или от диска к приложению, упорядоченные посредством Protocol Buffer от Google. При этом предполагается, что API для доступа к данным будет распространяться по модели Open Source.

segate2

Зачем, казалось бы, рассматривать методику отдельно взятого вендора, работающего над собственной  технологией СХД? Хотя бы по той причине, что вендор удосужился внятно артикулировать ключевые преимущества своей технологии в том виде, в котором следовало бы это делать всем остальным. Конечно, читать пресс-релиз Segate практически невозможно, учитывая, что он изобилует чрезмерным количеством определений типа «прорывной», «восхитительный» и «невероятный». Но основные преимущества прописаны вполне очевидно.

И одно из таковых — это снижение общей стоимости владения облачной инфраструктурой на 50%. Компания планирует достичь такого показателя за счет того, что KOS позволяет избавиться от специальной системы хранения данных, взяв её работу на себя. Отсутствие необходимости в дополнительных серверах снижает капитальные расходы, а операционные расходы на обслуживание неизбежно уменьшаются вследствие значительного упрощения СХД.

Одна из главных особенностей Kinetic Open Storage с точки зрения технологии заключается в том, что платформа позволяет перенести ключевые процессы управления данными с уровня операционной системы и СХД на уровень самих жёстких дисков. То есть с помощью KOS диски сами могут осуществлять миграцию данных и простое шифрование, отслеживать уровень QoS (качества обслуживания). Так дисковые массивы потребляют меньше энергии и могут напрямую обмениваться данными посредством канала, уже существующего в любом дата-центре (Ethernet). И, самое главное, система хранения данных таким образом абсолютно абстрагируется от вычислительного блока. А перенос процессов управления данными на само хранилище не только делает его дешевле, но и ускоряет операции записи/считывания информации, по заявлению Segate, более чем на 400%.

Разработчик заявляет Kintetick Open Storage как технологию, которая навсегда изменит архитектуру облачных дата-центров. Но почему речь идет именно об облаках? Да хотя бы потому, что сегодня основное направление мысли облачных провайдеров заключается в том, чтобы дать пользователям как можно больше дискового пространства за как можно меньшие деньги. А технология KOS как раз снижает операционные затраты при работе с большими объёмами статичных данных. По исследованию тех же Segate, большинство данных в облаках часто записывается, но редко используется, то есть до 90% данных статичны.

segate1

Архитектурно новая технология выглядит следующим образом. Приложения через собственные библиотеки напрямую обращаются к сети, а жёсткие диски уже как бы являются частью этой сети, так как подключены по Ethernet. Поэтому можно сказать, что приложения обмениваются данными непосредственно с дисковым хранилищем. Такая архитектура фактически решает проблему абстрагирования хранилища от остальной инфраструктуры.

В итоге получается, что Seagate разработала технологию, решающую все ключевые проблемы облачных ЦОДов одним махом. Но ведь у такой блестящей медали должна быть обратная сторона, те так ли?

Обе значимые проблемы платформы лежат в бюджетной плоскости. Первая состоит в том, что если компания решит менять архитектуру СХД на ту, которую предлагает Seagate, то ей придется переписывать существующие программы, чтобы они соответствовали KOS. Ведь приложения должны будут оперировать принципиально иными каналами и протоколами при передаче данных. Конечно, вендор предоставляет API бесплатно, но стоимость разработки никто не отменял. Другая проблема в том, что Kintetick Open Storage устраняет необходимость в существующей СХД: переделать хранилище таким образом, чтобы оно соответствовало новой архитектуре, увы, невозможно.

Разработчик пока не делится датой релиза первых коммерческих образцов, поэтому трудно сказать прямо сейчас, изменит ли KOS архитектуру облачных серверов. Но рынок в любом случае заинтересуется этой технологией, и в том, что мы вскоре увидим фактическую реализацию архитектуры, сомнений не возникает.

Категория: ИТ | Просмотров: 569 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Физический, облачный, виртуальный

Автор:Игорь Емельянов 

В процессе развития информационных технологий то и дело возникают термины и тренды, зачастую на стыке уже существующих, которые индустрия подолгу не может расшифровать сама для себя. Так было, например, с облачными технологиями. Помните, когда облака только входили в обиход, ИТ-профессионалы вокруг вас постоянно спрашивали: что это за «облака», какая именно технология за ними стоит, или это просто очередной маркетинговый термин? Помните, как нас всех сбивал с толку сам термин «облачные технологии»?

sdi1

Больше всего меня в то время удивляли люди, в том числе умудрённые опытом профессионалы, которые искали за словом «облака» конкретную софтверную или физическую составляющую, некую программу или какую-то специфичную серверную конфигурацию. В то время было популярно пытаться провести границу между облачными технологиями и классическими серверами. Злопыхатели с иронией вопрошали, где начинаются и кончаются «эти самые облака». Сегодня вопрос снят, как надоевшая мигрень. Стало понятно, что облака — это тренд, модель управления, новый подход к оперированию информационными технологиями.

Примерно то же самое в свое время было и с виртуализацией. В начале двадцать первого века само понятие дата-центра было неразрывно связано с физическими серверами. Конечно, разработка виртуальных серверов в тестовом режиме велась еще в двадцатом веке, но по факту большая часть вычислительных мощностей, которыми оперировали крупные компании, была основана на инфраструктуре, которую можно потрогать руками. Ситуация коренным образом изменилась, когда на серверный рынок вышла компания VMware, предложив такие продукты, как VMware GSX Server и VMware ESX Server. С тех пор разнообразие инноваций на рынке стало расти пропорционально выбору и сложностям, с которыми сталкивался клиент. А предложение стало действительно расти куда быстрее спроса. ИТ-менеджеры столкнулись с небывалым разнообразием опций: от физических серверов к виртуальным, к частным и открытым облакам, от проприетарных решений к Open Source.

И тогда появился вопрос: а стоят ли муки выбора и сложности управления тех преимуществ, которые даёт нам широчайший рынок инфраструктурных и архитектурных решений? Разумеется, стоит. Поскольку с инновациями и усложняющейся инфраструктурой неизбежно приходят возможности, о которых раньше можно было только мечтать. Например, «большие данные» или IaaS.

sdi2

Инфраструктура, которая открыла нам большие возможности, но значительно усложнилась, становится катализатором более чем логичного вопроса о том, как всем этим великолепием управлять. Когда управление ИТ стало слишком сложным, чтобы контролировать его системно, появилась концепция софтверной определеяемости, то, что называется software-defined. Эта идея наиболее плотно пустила свои корни в сетевой инфраструктуре, где термин SDN уже никого не удивляет. Затем софтверная определяемость стала экстраполироваться, пока не доросла до уровня собственно дата-центра. Об этом я уже писал в материале «Как хранилища данных тормозят прогресс дата-центров»:

«Первыми о SDDC заговорила VMware ещё в прошлом году, понимая под этим следующий подход: вся ИТ-инфраструктура должна быть виртуализована и представлена в виде сервиса, а контроль над ней должен быть автоматизирован программно. То есть в данном случае преимущества виртуализации используются на всех уровнях дата-центра. Три базовых уровня, которые обычно выделяют в SDDC, — это уровень абстрагирования ресурсов хранения, а также вычислительных и сетевых ресурсов, уровень программно-определяемых сервисов, функционирующих в виртуальных машинах, и уровень автоматизации всей этой инфраструктуры. Если представить себе SDDC схематически, то получается, что программно-определяемый дата-центр реализует облачную модель посредством интеллектуального ПО, которое абстрагирует аппаратные ресурсы, объединяет их в пул и выдает приложениям в необходимом количестве».

Казалось бы, на этом софтверно-определяемая история заканчивается, ведь дата-центр, по сути, является главным уровнем инфраструктуры. Однако сегодня на сцену выходит ещё одна концепция под названием SDI, Software-Defined Infrastructure («софтверно-определяемая инфраструктура»). Термин довольно многослойный, и оттого значение его необходимо пояснить. Именно для этого я и начал сегодня с облаков, поскольку понятие SDI сегодня так же туманно, как и «облачные технологии» несколько лет назад. Причем сходства есть как на идеологическом, так и на структурном уровне. Словом, те, кто помнит, как в отрасль приходили облачные технологии, сейчас довольно быстро сориентируются в том, что же такое SDI.

Во-первых, как и облака, SDI — это не единственная технология. Это группа технологий, инструментов и процессов, построенных таким образом, чтобы облегчить контроль над многослойным и хаотичным созданием рук человеческих под названием ИТ-инфраструктура, или, иначе говоря, дата-центр. Софтверно-определяемая инфраструктура — это управленческая структура для дата-центра, которая объединяет все слои и вычислительные ресурсы ЦОДа, чтобы автоматизировать управление инфраструктурой софтверными методами. Таким образом, SDI сводит физическую, виртуальную и облачную инфраструктуру в целостную платформу, управляемую единой системой.

sdi3

Фактически индустрия информационных технологий уже живет в мире, построенном по правилам SDI, где дата-центры создаются и разворачиваются нажатием пары клавиш. Чтобы упорядочить инфраструктурное разнообразие, SDI-решения предлагают дополнительный слой абстракции, который обеспечивает и автоматизирует взаимодействие физических, виртуальных и облачных компонентов ЦОДа.

Сегодня ИТ-архитекторам есть из чего выбирать, благо всевозможных технологий и слоев управления рынок предлагает немало. Главное — подобрать технологию или схему управления, которая будет максимально соответствовать поставленной задаче. И в основе концепции SDI стоит множество таких технологий. Многие из них хороши, но едва ли сегодня уже можно назвать доминирующие на рынке продукты. Но, чтобы не быть голословным и не повышать уровень абстракции, и так высокий в разговорах о виртуализации, приведу несколько примеров. Сегодня над SDI-решениями работают компании Intel, Adara Networks, VMware и многие другие. Главное, что правильный выбор одного из подобных решений — это ключ к эффективному управлению разнородной инфраструктурой ЦОДа.

Вообще, цель всей этой затеи с SDI более чем оправдывает вложенные средства. Ведь основной задачей является дата-центр, наиболее точно соответствующий запросам организации, а также наличие у компании удобных и централизованных инструментов управления этим дата-центром. А сами SDI-решения помогут ИТ-службе предоставлять компании вычислительные мощности, мониторить ресурсы и управлять ими, осуществляя все это в рамках конвергентной системы, состоящей из физической, виртуальной и облачной инфраструктуры. А подобная инфраструктура может предполагать сразу несколько дата-центров. Поэтому задача, которую берут на себя разработчики продуктов формата SDI, — это централизованное управление глобальной инфраструктурой, которая имеется у большинства крупных компаний, тем более если они перешли на облачные решения.

Категория: ИТ | Просмотров: 477 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Автор: Игорь Емельянов

Если бы меня попросили лаконично охарактеризовать событийную канву 2013 года в информационных технологиях, то мне бы хватило единственного слова — виртуализация. Одному только вашему покорному слуге — среди сотен тысяч пишущих коллег по всему миру — приходилось рассуждать о виртуализации на различных структурных и технологических уровнях раз этак десять за последний год. Оно и понятно: технология виртуализации, запущенная на массовый рынок компанией VMware в начале двухтысячных, чрезвычайно легко развязала руки не только ИТ-менеджерам, но и другим функциональным управленцам.

Если воспринимать виртуализацию на уровне ИТ-активов типа дата-центра или серверной, то стоит ещё отметить экономический взрыв, произведённый этой технологией. Ведь она превратила капитальные затраты в операционные. Вдумайтесь: по силе своего воздействия на корпоративную ИТ-экономику это почти то же самое, что изобретение потребительских кредитов!

Но, как уже было сказано, виртуализация распространялась далеко не на все структурные уровни сразу. Проще всего было виртуализовать хранение данных: облачные хранилища появились едва ли не первыми. Затем процессоры и сетевая инфраструктура, потом оперативная память. Это привело к переходу в облака не только софта (SaaS), но целых платформ, операционных систем и сред разработки (IaaS), — только затем, чтобы катарсисом всей этой пьесы стала технология IaaS, целая инфраструктура как сервис. Сегодня любой крупный облачный провайдер предоставляет услуги на всех уровнях сразу — SaaS, PaaS, IaaS.

Но частных клиентов не интересуют структурные уровни. Им подавай готовые решения проблем, что более чем логично. То есть какой-нибудь Dropbox для хранения данных, Spotify для прослушивания музыки, Netflix для просмотра фильмов. А тем, кто арендует инстансы и сервисы у провайдеров облачных услуг, нужно всё это предоставить клиентам. И до недавнего времени существовала проблема, которая фактически закрывала путь целому классу облачных решений, способному разорвать рынок программного обеспечения в клочья.

GTC 2012 Keynote - Jen-Hsun Huang

И проблема эта заключалась в виртуализации ещё одного структурного, ресурсного уровня информационной системы, а именно — графического процессора. Я говорю об этой проблеме в прошедшем времени, поскольку позавчера Amazon и NVIDIA отрапортовали о совместном решении этой проблемы. Новость заключается в том, что теперь компании, предоставляющие своим клиентам SaaS-решения, могут арендовать машины, оснащённые графическими процессорами NVIDIA GRID, и предоставлять доступ к требовательным к графике приложениям на удалённых устройствах. То есть теперь облачные вычисления становятся доступными не только для хранения, обработки данных и использования обычных приложений, но и для работы с приложениями, требующими графического ускорения.

По сути, это означает, что теперь все программы, требующие высокой графической производительности, могут поставляться через облако. А это открывает целый новый рынок: игры, графические и видеоредакторы, средства проектирования и моделирования — всё через облако! Строго говоря, эксперименты с играми через облако уже были (Onlive), равно как и с графическими редакторами (Adobe). Но они требовали наличия монструозных вычислительных и графических мощностей на стороне провайдера.

Облачные сервисы использовались лишь для хранения и передачи информации, как канал поставки услуг клиенту, но обработка графики происходила на провайдерской стороне, и это требовало слишком больших инвестиций. Конечно, Adobe брала всё это в расчёт, запуская Creative Cloud, но это компания, которая действительно может себе позволить такие капитальные расходы. А теперь мощные графические процессоры стали доступны широкой публике. И чтобы разобраться, как именно это стало возможным, обратимся к деталям.

na1

С практической стороны вся эта шумиха вокруг сотрудничества Amazon c NVIDIA заключается в том, что подписчики Amazon EC2 получили два новых инстанса и g2.2xlarge и cg1.4xlarge. Первый состоит из следующих компонентов:

  • графический процессор NVIDIA GRID на базе GK105 Kepler со ядрами 1536 CUDA и 4 Гб RAM;
  • процессор Intel Sandy Bridge с тактовой частотой 2,6 ГГц;
  • 15 Гб RAM;
  • 60 Гб SSD-хранилища.

Второй инстанс схож по комплектации, но предполагает дополнительные функции вроде памяти с исправлением ошибок (eror correcting memory). Оба доступны пока только в зонах US East (Северная Вирджиния), US West (Северная Калифорния и Орегон), и EU (Ирландия). Цена удовольствия – $0,650 за час для g2.2xlarge и $2,100 за час для cg1.4xlarge.

Как бы просто всё это ни звучало, колоссальное значение облачных GPU трудно переоценить. Помните концепцию GPU как таковую? Какой путь прошла графика, ставшая теперь частью облачного мира? Раньше все работало так: дисплею вашего компьютера или телефона сообщалась динамическая информация о расположении пикселов, цвет и расположение каждого пиксела фиксировались в специальной памяти. Это было легко запрограммировать, прописав адрес и цвет пиксела. Если вам нужно было нарисовать круг, то приходилось вычислять адрес и трансформации каждого пиксела за единицу времени.

Это было просто, но чертовски медленно. А потом компьютерные игры стали постепенно толкать индустрию вперёд и всячески усложняться. Появились текстуры, тени, сглаживание. И проявилось интересное свойство видеопамяти: вычисления, необходимые для отображения текстуры или сглаживания, пришлось запускать параллельно с другими, отвечающими за иные процессы в рамках того же кадра. Так появились графические процессоры, GPU, которые сняли вычислительный груз с процессоров. Игры и прочие графические приложения отправляют высокоуровневые операции на GPU, а те обрабатывают сотни тысяч пикселов одновременно, отправляя полученный результат в компоновщик кадра (frame builder), откуда они транслируются на дисплей. Но это в стандартной модели. А вот как выглядит аналогичный процесс в облаке, в случае NVIDIA GRID на g2-инстансе:

na2

Как вы понимаете, графический процессор в данном случае не может отправить данные на дисплей напрямую через компоновщик кадров. Поэтому команды от приложения проходят через ряд буферов (компоненты NVENC, NVFBC, NVIFR на диаграмме). После чего формируется видеопоток, сжатый с помощью кодека H.264, который можно транслировать на любое совместимое устройство. Таким образом, требовательные к графике приложения получают доступ к вычислительной мощности CPU, 3D-рендерингу в NVIDIA GRID, базам данных и облачному хранилищу AWS.

Всё это открывает реальные возможности по разработке и запуску сложных приложений, требующих графических мощностей, прямо в облаке. Это, вероятно, важнейшая веха на пути развития облачных технологий за последние несколько лет. NVIDIA уже сотрудничает с рядом разработчиков, чтобы предложить клиентам пользоваться профессиональными инструментами прямо в браузере. В списке партнеров числятся Autodesk, Revit, Maya, 3ds Max. Компания OTOY посредством фреймворка ORBX.js трудится над проектом, который позволит пользователям работать с 3D приложениями на тонких клиентах, без установки каких-либо дополнительных программ.

Платформа Agawi True Cloud планирует транслировать 3D-приложения прямо на мобильные устройства. Облачный игровой сервис Playcast Media объявил о переходе на g2-инстансы, что в перспективе сэкономит значительные средства. Приложение для визуализации медицинских данных Calgary Scientific ResolutionMD теперь может быть доступно пациентам через облако, будучи запущенным на новых инстансах с GPU.

Игры, исследовательские и научные приложения, медицинские программы, мобильные трансляции — всё это теперь доступно сотням тысяч разработчиков. А значит, вскоре нас ожидает бум профессиональных и потребительских 3D-приложений в облаке. Это ли не революция?

Категория: Наука | Просмотров: 647 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)