Добро пожаловать на сайт, Гость! Регистрация RSS

Среда, 08.05.2024
1 2 3 »

Как потерять лицо в Facebook

Тревожит ли вас то, что пишут и публикуют ваши друзья в социальных сетях?
 
«Компьюлента» часто пугает вас тем, что личная информация, которую вы публикуете в Интернете, может обернуться против вас. Исследователи из Корнеллского и Северо-Западного университетов (оба — США) предупреждают, что, вообще говоря, думать надо не только о себе.

Опрос пользователей Facebook выявил множество историй о том, как F-друзья размещали в Сети разнообразные фотографии, которые могли нанести ущерб третьим лицам. О чём речь? Это, например, были снимки пьяных приятелей или просто фотографии, представляющие человека в том виде, в котором он сам себе не нравится. Сам бы он их никогда публиковать не стал, а вот его «заботливые» друзья, думающие только о себе...

Беда лишь в том, что в эпоху цифровых технологий ваше само- и просто мнение больше вам не принадлежит. Вот что говорит корнеллский профессор Джефф Хэнкок (Jeff Hancock): «Социальные медиа перестали быть периферией нашей жизни, они давно стали её частью!» И с этим трудно не согласиться.

Смотрите-ка, а Джефф Хэнкок лица не теряет! (Фото Корнеллского университета.)

Профессор, его аспирантка Эрин Споттсвуд (Erin Spottswood) и их коллеги представили исследование «Эти неловкие моменты: коллективное самомнение и потеря лица в Facebook» на конференции ACM, проходившей 15–19 февраля в Балтиморе (США).

Работа строилась на опросе 150 пользователей Facebook, которых попросили описать то, какие именно чужие сообщения в соцсети им неприятны. Затем респонденты должны были оценить уровень дискомфорта таких постов. Кроме упомянутых «неприятных» фотографий, пользователям не нравится, когда их друзья (вдруг) делают политические заявления, которых те от них не ожидали. Или банально лгут. Наконец, многие обеспокоены тем, что потенциальный работодатель может увидеть нечто их компрометирующее. В общем, всё ожидаемо: испуг, ложь и опять испуг.

Исследователи замечают, что у человека может быть несколько разных аудиторий. И то, что может устраивать одну, другой покажется неприятным. Если ваш коллега посмеётся над карикатурой, то ваша бабушка, например, посчитает её вульгарной и осудит вас. Интересно, что чем разнообразнее были группы друзей у опрашиваемых, тем выше они оценивали уровень дискомфорта, который испытывали при чтении неприятных сообщений или просмотре неудобных фотографий. К тому же некоторые люди уделяют больше внимания своему имиджу, чем другие. Так вот те, кого это особенно волнует, тоже описывали уровень дискомфорта в подобных ситуациях как повышенный.

Испытуемых также просили сообщать о том, как долго они пользуются Интернетом и сетью «Фейсбук». Как и ожидалось, Facebook-профи меньше беспокоились о том, что в соцсети может быть опубликовано что-то, что им не понравится. Потому что они знают, как с этим бороться: к примеру, можно убрать отметку о себе на неприятном фото. С другой стороны, старожилы Интернета (а не только соцсети) испытывали бóльший дискомфорт. Потому, наверное, что понимают, как далеко может зайти публикация информации во Всемирной сети...

Исследователи считают, что социальные сети должны иметь функции, которые способны предотвратить такие проблемы. Скажем, перед отправкой сообщения пользователь должен иметь возможность сделать пометку, каким группам друзей это будет видно. Или хотя бы просто получить сначала такое предупреждение: «Вы уверены, что хотите, чтобы этот пост увидели все?»

В любом случае мы должны хорошенько подумать, прежде чем публиковать в Сети что-то касающиеся других людей. И, думается, это относится не только к сетевой жизни. Впрочем, всё это такие прописные истины...

Подготовлено по материалам Корнеллского университета.
Категория: ИТ | Просмотров: 429 | Добавил: Mirra_Sun | Дата: 14.04.2014 | Комментарии (0)

Проблема 08/04: почему старая ОС угрожает будущему

Восьмого апреля Microsoft прекращает поддержку Windows ХР. Так закончится официальная история одной из самых коммерчески успешных операционных систем, высокая востребованность которой сохраняется до сих пор. В последнем заключается серьёзная проблема, способная затронуть многие отрасли.

Причины отказа Microsoft выпускать критические обновления для ОС спустя двенадцать с лишним лет после её первого релиза вполне понятны, но от этого беспокойство экспертов в области безопасности в связи со складывающейся ситуацией не уменьшается.

Вице-президент компании Crowdstrike Адам Майерс (Adam Meyers) указывает, что WinXP установлена почти на трети всех компьютеров в мире. Её дальнейшее массовое использование без патчей поставит под удар целые сети, транспортные и платёжные системы.

Windows XP: всё, прилетели (фото: crashspotting.com).

Windows XP: всё, прилетели (фото: crashspotting.com).

Вопреки здравому смыслу, Windows XP популярна не только на старых компьютерах. Под её управлением работают банкоматы, кассовые аппараты, терминалы платёжных систем, информационные стойки, целые диспетчерские пункты и различное вспомогательное оборудование, которому мы ежедневно доверяем свои деньги, а порой и судьбу.

Эта операционная система получила от ФСТЭК сертификат защищённости, срок действия которого заканчивается лишь 4 июля 2014 года. Иными словами, ещё три месяца после окончания официальной поддержки она будет по документам считаться надёжной.

Директор ATM Industry Association Дэвид Тэнт (David Tente) указывает, что только 38% банкоматов в США после 8 апреля станут работать под управлением другой ОС. Свыше 263 тыс. банкоматов останутся на Windows XP и окажутся более уязвимы.

Банкомат под управлением Windows XP... и какого-то трояна (фото: wlearn.gr).

Банкомат под управлением Windows XP... и какого-то трояна (фото: wlearn.gr).

Да, Windows XP всегда считалась дырявой, и в банкоматах ей изначально было не место, но сейчас ситуация стала ещё хуже. Многие уже пишут о незакрытых уязвимостях в WinXP SP3 и продолжают искать новые, только теперь придерживают их огласку до начала апреля. 

Усугубляет ситуацию и тот факт, что ряд уязвимостей носит фундаментальный характер, из-за чего затрагивает несколько версий ОС сразу. Как только выйдут новые патчи для Windows Vista, 7 и 8, их дизассемблируют и постараются написать эксплойт для XP. С неё в любом случае надо переходить на что-то другое, и как можно скорее.

Коммерческие организации относительно свободны в развитии своей инфраструктуры, поэтому очередная миграция для них будет лишь привычной необходимостью. Однако в большинстве бюджетных учреждений России и других стран компьютеры рядовых сотрудников настолько стары, что с трудом шевелятся под управлением современных операционных систем.

Windows XP: выберите способ загрузки поезда (фото: Erik Hanson / flickr.com).

Windows XP: выберите способ загрузки поезда (фото: Erik Hanson / flickr.com).

Они были собраны в эпоху популярности Windows XP и до сих пор как-то справляются с поставленными задачами. Любая попытка срочно мигрировать на что-то другое сейчас вызовет массу проблем.

Для одного компьютера и конкретного пользователя всегда можно подобрать лёгкий дистрибутив Linux (среди десятков наиболее актуальных) и решить проблему за вечер. Однако на уровне организации массовая миграция с Windows XP вызовет волну негодования и многочисленные упрёки в адрес ИТ-отдела.

Даже когда утихнет первая волна споров, а поклонники Red Hat, Debian, Gentoo, Arch, Slackware и прочих ветвей объявят временное перемирие, основные проблемы будут ещё только впереди. Многим госучреждениям понадобятся продукты с лицензиями ФСТЭК, ФСБ и Министерства обороны, а они есть лишь на единичные дистрибутивы.

Любой выбранный вариант ОС будет компромиссным и потребует доработки на каждом рабочем месте. Поиск драйверов для снятых с производства комплектующих надолго выбьет из колеи системных администраторов. Добавьте к этому необходимость обеспечить работу привычных программ или поиск альтернатив для них в мире свободного ПО. Это всё будут только локальные последствия миграции.

Windows XP - куда спешить? (фото: Niv Singer / flickr.com).

Windows XP — куда спешить? (фото: Niv Singer / flickr.com).

Взаимодействие пользователей по сети, совместная работа с документами и базами данных войдут в привычное русло после отказа от Windows XP ещё очень не скоро, если вообще будут реализованы на прежнем уровне удобства со старым железом. Всё это время большинство сотрудников станет осваивать нововведения, забросив основные обязанности. 

В итоге миграция на другие ОС затянется. Многие предприятия и банки продолжат использовать Windows XP. В России — как минимум до прекращения срока действия сертификата ФСТЭК. Уже этой весной они сами и их клиенты могут стать жертвами атак, к которым никто не будет готов.

Материал взят из computerra.ru

Категория: ИТ | Просмотров: 480 | Добавил: Mirra_Sun | Дата: 14.04.2014 | Комментарии (0)


Автор: Евгений Золотов  21 ноября 2013

Уверен: если спросить вас, читающих сейчас эти строки, об отношении к ТВ, половина (а может быть, и больше) скажут, что не смотрят его давно, и подавляющее большинство согласится, что телевизор — зло. «Зомбоящик», навязывающий чужое мнение и поглощающий время. Сам считаю так же — и, попав в гости, где телик по привычке включён всегда, невольно начинаю искать, как хотя бы убавить звук, чтобы ограничить льющийся поток информации до комфортного уровня.

Мы привыкли к компьютерам и Сети, считаем контроль над информацией свойством естественным и необходимым: вместо того чтобы глотать пахучий поток неизвестно чего, вливаемый в головы через телевизионную «воронку», мы поглощаем только то, что пожелали сами. Но не торопитесь торжествовать. Настало время признать, что и компьютеры, и интернет сами по себе не спасают от бесполезной информационной жвачки. Чтобы защитить себя, требуется что-то помимо собственно техники, а именно самодисциплина.

Сеть избаловала нас. Чем она так уж отличается от классических медиа — телевидения, радио, газет? Прежде всего тем, что входящий поток информации подконтролен потребителю (да-да, она ещё и интерактивна, но об этом позже): мы выбираем, куда направить браузер. И мы привыкли считать себя хозяевами положения, выписали себе право кидать презрительные взгляды в сторону «сидящих на телеигле». Что ж, так оно и было, наверное, лет пятнадцать назад, когда глобальная компьютерная сеть сводилась к HTML и почте, и браузеры умели открывать лишь по странице за раз, не ведая о «вкладках». Но с тех пор изменилось всё. Интернет вырос из подобия газетного листка в самодостаточную платформу, где процветают информационные ресурсы любого сорта, от чистого текста до приложений.

Web icons

Хоть краем уха вы слышали, конечно, о проблеме информационного перегруза, о том, что ежедневно на нас обрушиваются гигабайты данных во всевозможных формах, и объёмы постоянно и стремительно растут. Я не стану грузить статистикой, важнее другое: интернет играет в этом процессе первую скрипку, и в какой-то момент объёмы пересекли черту, за которой потребление информации классическими способами — знаете, последовательно перелистывая странички — стало неэффективным, если не невозможным. Возникла потребность в адекватном ответе — и есть теория, согласно которой таким ответом стали социальные сети.

Если Сеть — информация в чистом виде, то сеть социальная — её концентрат, эссенция, выжимка из десятков и сотен источников, сливаемая потребителю через «фид», новостную ленту. С точки зрения эффективности это несомненный шаг вперёд: в единицу времени можно узнать больше! К сожалению, вместе с эффективностью мы утратили контроль.

Никакие фильтры, никакой искусственный интеллект не в силах сжать поток информации от сотен потенциально интересных источников до ручейка, по смыслу эквивалентного, например, страничке текста. Мы открываем ленту новостей — и вынужденно потребляем больше, чем нужно, затрачивая на каждую контент-единицу времени меньше, чем нужно, чтобы осмыслить, «переварить». Но и сам принцип, само устройство, интересы владельцев классических соцсетей не предполагают осмысления, а тем более ведения осмысленной дискуссии: пользователя просто подталкивают к поглощению новых порций информации. Вот почему кое-кто называет соцсети фастфудом информационного века, способом по-быстрому удовлетворить информационный голод без внимания к качеству и количеству потребляемых «калорий». 

Спящий Нео

Объешьтесь — и вам станет плохо. Можете смеяться, но для информационного фастфуда это тоже работает. Не далее как минувшим летом американские неврологи сделали такой вывод, наблюдая за пользователями Facebook: чем больше времени проводит индивид в соцсети, тем менее он счастлив в данный момент и менее доволен жизнью вообще. Особенно сильно эффект проявляется у людей коммуникабельных (в классическом смысле, то есть привыкших и любящих общаться офлайн).

Для исследователей этот результат важен по причине размера. Ежедневно полмиллиарда человек неосознанно терзают себя только в крупнейшей из соцсетей, и с этим нужно что-то делать, пусть причины негативного влияния до конца и не выяснены (предполагается, в частности, что дело в социальном противопоставлении: всегда найдётся кто-то красивей, умней, богаче, успешней). Лекарство же простое: заменить соцсети на старые способы коммуникаций вроде телефона или личных встреч.

Рекомендацию учёных можно прочесть и так: они советуют поглощать меньше информации. Что ж, как и от фастфуда для желудка, от фастфуда для мозгов возможно отказаться. Хоть сделать это будет и трудней, чем в случае с едой или, скажем, телевизором: здесь могут пострадать (и наверняка пострадают) не только ваши личные голова или брюхо, но и люди, сидящие по ту сторону социального аккаунта: ведь они будут думать, что вы наплевали на них. Впрочем, это уже нюансы. Важнее достигнутое понимание, что проблема на самом деле не в технике, а только в том, что информации слишком много. Наша тяга к концентрированным инфоисточникам естественна, мы желаем насытиться быстрей. Но давайте же установим рамки! Так же, как ограничивают количество потребляемых калорий, ограничим потребление байтов.

Fastfood girl

Психологи уже называют это цифровой диетой: если вы можете получить информацию, это ещё не значит, что — должны! Поверните проблему информационного обжорства таким боком, выгодным для себя, и вам будет легче признать её и справиться с ней. Веб — штука калорийная, социальные сети — продукт ещё более калорийный; так урежьте порции!

Кто-то рекомендует не жрать на ночь, в смысле не читать соцсетей в неподходящее время. Кто-то — жёстко разграничить работу и отдых, выставляя таймер и блокируя на время выполнения обязанностей левые сайты. Лично мне нравится идея диетических соцпродуктов: с некоторых пор я читаю соцсети только раз в неделю или около того, что автоматически избавляет меня от львиной доли пустого информационного шума (несущественные темы попросту утекают за это время из топа). И, откровенно говоря, не устаю наслаждаться ощущением такой жизни. Очень похоже на начало нулевых, когда соцсетей не было и в помине и, встав с утра, можно было сразу начинать работать, а не продираться сквозь ставшие обязательными ежедневные социальные ленты.

Сторонники цифровой диеты утверждают, что, кроме хорошего настроения и высвободившегося времени, вы получите ещё кое-что, а именно способность концентрироваться на действительно важных вещах. Не стоит забывать только, что прогресс неудержим. Социальные сети, конечно же, не станут последним и самым эффективным инструментом доставки информации. Скажем, в последние три года взрывной рост интереса переживает инфографика: наглядное представление предположительно важных данных. По сути, это тоже информационный фастфуд, разве что удачного единообразного способа сервировки для него пока не найдено — и до поры до времени он играет вспомогательную роль, украшая соцленты и блоги.

А потом обязательно появится что-то ещё. Помните о пользе самодисциплины, будьте готовы!

В статье использованы иллюстрации Pietro Zanarini, Karen Foto, кадр из к/ф «Матрица».
Категория: Наука | Просмотров: 486 | Добавил: Mirra_Sun | Дата: 22.11.2013 | Комментарии (0)

Автор

Специалист по котлам и трубам подал любопытную идею кардиохирургам. В результате выжил сам и помог другим.




Тэл Голсуорси — инженер, он привык разбирать вещи, чтобы найти поломку, а потом собирать их снова и заставлять работать. Но на протяжении тридцати с лишним лет ему пришлось жить с поломкой в собственном сердце, которую оказалось не так-то легко устранить. Тем не менее однажды его посетила счастливая мысль, и при помощи кое-каких технологий, позаимствованных у авиационной промышленности, он изготовил «замечательно простое» устройство и убедил хирургов имплантировать его.

Прошло девять лет, и 57-летний англичанин из Глостершира не только выжил, но и помог таким же образом четырём десяткам человек с тем же заболеванием. Теперь он предлагает хирургам всея Европы испытать его волшебное устройство.
Тэл Голсуорси (фото YES Meeting).

Г-н Голсуорси страдает синдромом Марфана — патологией соединительной ткани. Последняя образует опорный каркас, благодаря которому органы держат форму и остаются на своём месте. У людей с тяжёлыми формами дисплазии начинаются проблемы с глазами, суставами и особенно с сердцем.

Каждый раз, когда сердце перегоняет очередную порцию крови, аорта (основной сосуд, идущий от сердца) растягивается, дабы адаптироваться к кровотоку. У большинства людей она после этого возвращается в нормальное состояние, а у пациентов с синдромом Марфана этого не происходит, и со временем аорта увеличивается.

С ранних лет г-н Голсуорси знал, что в один не очень прекрасный момент аорта растянется настолько, что лопнет. В 2000 году после рутинного обследования ему сказали, что пришла пора подумать об операции. Но инженеру совсем не понравилось то, что ему предложили. Традиционная процедура сложна и занимает много времени: растянувшийся сегмент аорты заменяется искусственным трансплантатом. Иногда внутрь сердца помещаются металлические клапаны взамен вырезанных.

В этом случае г-ну Голсуорси пришлось бы до конца жизни принимать препараты для разжижения крови и максимально плавного кровотока и мириться с тем, что даже маленькая рана может привести к обильному кровотечению. Но инженер обожал лыжи и не собирался отказываться от активного образа жизни.

Он принялся размышлять, можно ли обойтись без удаления части сердца, и мысль его была простой и прямой. Если протекает садовый шланг, нужно раздобыть немного изоленты и обернуть ею шланг с внешней стороны. Каким-то чудом г-н Голсуорси убедил двух лондонских хирургов подумать вместе с ним. Вот их имена: Том Трежер из больницы им. Гая (сейчас работает в Университетском колледже Лондона) и Джон Пеппер из Королевской бромптонской больницы.

Со временем исследовательская группа выросла, и через три года появился хомут особой конструкции, который тесно прилегал к увеличенному сосуду, поддерживая его и предотвращая дальнейший рост. Изготавливался он из материала, который уже много лет используется в нитках для сшивания раны. Казалось очевидным, что наложить такую заплатку на аорту намного проще и быстрее, чем лезть внутрь сосуда. К тому же отпадает нужда в препаратах против сгущения крови.

С тех пор как в голову г-на Голсуорси пришла счастливая мысль, миновало четыре года. Всё было готово к эксперименту, и инженер согласился сыграть роль подопытного кролика. Несмотря на несколько успешных репетиций, пациенту было очень страшно. «Я неоднократно руководил проектами, но этот, конечно же, кардинальными образом отличался от них, — вспоминает изобретатель. — Я — и никто другой — мог оказаться в итоге на том свете».



Двухчасовую операцию провели в Королевской бромптонской больнице. За девять лет, прошедших с тех пор, аорта г-на Голсуорси так и не увеличилась в размерах. «Мне легко дышать, сплю спокойно и отдыхаю так, как привык отдыхать всю жизнь», — хвастается бывший пациент.

Поначалу инженер думал только о себе, но с тех пор аналогичную процедуру прошли более сорока человек в Лондоне и Оксфорде, а также в Бельгии. Большинство чувствует себя прекрасно, однако был всё же один пациент, который скончался от осложнений, так что риск есть.

Грэм Купер из Шеффилдской клинической больницы так комментирует притязания коллег: «Г-н Голсуорси — великолепный инженер, и новый метод действительно может обладать рядом преимуществ перед традиционной процедурой. Но эта операция проводится уже более двадцати лет, она прекрасно зарекомендовала себя как вполне безопасная, и мы твёрдо знаем, что она продлевает жизнь. Уйдёт немало времени на получение необходимой статистики, которая позволит сравнить два подхода».

Г-н Голсуорси только рад предложению начать полномасштабные клинические испытания, о чём уведомил всех хирургов Европы на страницах издания European Heart Journal.

Подготовлено по материалам Би-би-си.
Категория: Наука | Просмотров: 442 | Добавил: Mirra_Sun | Дата: 22.11.2013 | Комментарии (0)

Linux и её старики: почему ссыхается сообщество разработчиков Ядра?


Автор: Евгений Золотов  

Linux по-прежнему сильна. В этом легко убедиться, поставив новую версию любимого дистрибутива и насладившись свежими формами и идеями либо заглянув в софтверные новости, в среде которых свободная ОС если и не доминирует, то явно просматривается за значительной частью из них. Вот Raspberry Pi — работающая, конечно же, под «Линуксом» — празднует продажу двух миллионов плат, превзойдя на три порядка свой первоначальный план. Вот Valve Software готовит январскую демонстрацию Steam Machine — по сути, линуксовой игровой персоналки. Вот Samsung, устав от Google, играется с мобильной Tizen, которая в основе своей всё та же Linux.

А за всем этим великолепием незримо стоит Линус Торвальдс и сформированный по его инициативе и под его непосредственным контролем вольный коллектив разработчиков Ядра. Слово и желание Линуса сегодня значат так же много, как и раньше. Пожелал он обрезать ветку 3.х раньше обычного, на уровне 20-го релиза? Так, вероятно, и будет — а значит, уже через год мы получим ядро 4.0. Если верить самому Линусу, он просто хочет сделать нумерацию ядер удобней, избежать возни с бесконечными подверсиями, как это было с 2.x, растянувшейся на 15 лет. Но кое-кто называет его хитрым старым лисом: скорый выпуск версии 4 заставит разработчиков шевелиться, и Линус знает это. 

Линусу сорок три, и больше половины из них он посвятил Linux. Однако с возрастом, увы, приходит не только опыт, а и усталость. И основатель свободной ОС в этом смысле не одинок: среднестатистический девелопер Ядра заметно постарел, коллектив в целом ссохся. О проблеме впервые заговорили ещё в конце нулевых, но в последние месяцы вспоминают особенно часто.

Изначально, лет пять назад, «седина в бородах» ядерщиков была лишь забавным наблюдением, почти шуткой, которую время от времени травили журналисты, попавшие на очередную большую конференцию. Но время шло — и стало ясно, что выход девелоперов «на пенсию» не сулит ничего хорошего. Да, Ядро продолжает развиваться: 16 миллионов строк кода, десятки патчей ежесуточно, над последней версией трудились более тысячи человек. Однако состав сообщества качественно изменился и продолжает меняться в худшую сторону. Количественно это хорошо показано в простеньком исследовании, опубликованном не так давно компанией Bitergia.

Взяв за основу историю изменений линуксового ядра с 2005 года (базу Git) и понимая возраст участника как продолжительность его присутствия в проекте (то есть «молодой» вовсе не означает, что участник молод в действительности: просто к разработке Ядра он подключился сравнительно недавно), Bitergia нарисовала занимательный график. Вот он, выше, с поквартальной разбивкой «возрастов».

Выводы простые. Во-первых, абсолютная численность большинства «поколений» (в том числе «стариков», то есть тех, кто занимается Ядром дольше других, самая верхняя полоса) со временем уменьшается, сообщество становится меньше. Во-вторых, что особенно печально, ежеквартальный приток свежих сил («молодёжи») уменьшается тоже: если в начале наблюдений он измерялся сотнями человек, то теперь — только десятками. Если так пойдёт и дальше, ещё через десять лет приток новичков в ряды ядерщиков прекратится вовсе, а действующие участники не смогут поддерживать взятый темп и будут вынуждены сократить количество добавляемых в Ядро новшеств. Ситуация чем-то напоминает последние болячки Википедии (см. «Википедия против слабого пола»), и, как и там, точной причины не знает никто: если со «стариками» всё просто (естественный отток!), то пассивность «молодых» — пока загадка.

Торвальдс бреет бороду

Версий, конечно, много. Взять хотя бы квалификацию: чтобы влиться в число разработчиков Ядра, недостаточно простого желания и даже работоспособности, необходимо знать внутреннюю архитектуру Linux, нюансы её программирования, быть готовым принять стиль общения заслуженных девелоперов (то, что называют культурным барьером). Кто с ходу сможет удовлетворить этим требованиям? Да в LKML (Linux Kernel Mailing List — главная тусовка ядерщиков) страшно даже заглянуть, тысяча сообщений в сутки! Так что с тривиальных исправлений — тех самых, которых всегда бесчисленное множество и которые лично Линус считает самыми важными, — начинать на самом деле едва ли легче: новичку необходимо знать о Ядре слишком много.

А как получить эти знания? Ещё десять лет назад начинающий линуксоид становился системным администратором по необходимости, поскольку приходилось изучать и настраивать элементарные вещи — вроде звуковой и графической карты, подключения к Сети и прочего. Нынче всё это работает «из коробки». Да и программирование само по себе более не привлекает молодёжь. Какой же смысл открывать в вузах образовательные курсы для желающих писать патчи в Linux (как пробуют делать на Западе), если сама идея написания кода утратила обаяние, каким была окружена двадцать или десять лет назад? Для желающих познакомиться с Ядром уже есть отличные ресурсы (см., например, Linux Kernel Newbies), но само по себе их существование проблемы потери интереса не решает!

Линус Торвальдс

Наконец, есть мнение, что лично Торвальдс и выстроенная им «корпоративная культура» отпугивают новичков. Простого финского парня, который был рад любой помощи, давно нет. Есть жестокий босс, нещадно выговаривающий за ошибки. Поведение Линуса на людях давно уже вызывает толки (см. «Куда дальше, Линус?») и хоть к новичкам он, говорят, снисходителен, атмосферу в сообществе ядерщиков (которую он как основатель проекта, несомненно, и помог сформировать) благожелательной на назовёшь. Хакеры считают, что так и должно быть, и с ними, по здравом размышлении, трудно не согласиться (в конце концов, речь о крупнейшем опенсорсном проекте планеты Земля, так что некачественный код должен быть забракован как можно раньше). Но попробуйте втолковать это новичкам — тем самым, которых уже не хватает! Так, может, пришло время сместить «великодушного диктатора», заменив его более способным человеком? Или сделать организованный форк и пойти своей дорогой? Пока ещё не поздно.

Посмотрим правде в глаза: ядро Linux уже развивается прежде всего корпорациями. Три четверти всей активности здесь генерируют люди, которым за это платят их работодатели. Не означает ли это, что мы теряем контроль над Ядром, что движется оно теперь в направлении, указываемом гигантами ИТ-бизнеса: IBM, Intel, Red Hat? Пока ещё, впрочем, «старики» вроде Линуса справляются с делягами, заставляют их работать наравне со всеми — отвечать на вопросы прямо, а не пресс-релизами. Но что будет, когда старики выйдут из игры? Не повторит ли Linux судьбу Android?

В статье использованы иллюстрации Thierry Ehrmann, John Dalton.
Категория: ИТ | Просмотров: 723 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Автор:Игорь Емельянов 

Современный дата-центр возможно виртуализовать практически полностью: абстрагировать от физической инфраструктуры сегодня можно и сети, и вычислительные ресурсы, и даже целые серверы. Но есть одна проблема, стоящая на пути к переходу в SDDC, или софтверно определяемый дата-центр. И, говоря о практически полной виртуализации ЦОДа, я имел в виду один из уровней физической инфраструктуры, который чрезвычайно плохо поддаётся абстракции, в основном из-за технологических недостатков. О проблемах с виртуализацией систем хранения данных мне довелось поведать в материале «Как хранилища данных тормозят прогресс дата-центров», опубликованном в «CIO» чуть более двух недель назад. Позволю себе небольшую самоцитату, дабы ввести вас в курс дела, перед тем как перейти к сути сегодняшней темы.

segate3

«Дальше началась виртуализация всего, что так или иначе виртуализовалось. И SDN, с которых мы начали, — это частный случай виртуализации одного из уровней дата-центра. Но если сети, серверы и прочие уровни подвергались абстракции без особых проблем, то сегодня фактором, серьезно сдерживающим развитие SDDC, является дисковое пространство — или, если хотите, хранилища данных. На этом уровне у идеологов программно-определяемых ЦОДов случилась заминка. Дело в том, что в области хранения данных за последние двадцать лет поменялось очень и очень немногое. Технологии, конечно, развивались, доступные объёмы дискового пространства, а также скорость считывания информации росли. Но системы хранения данных, по сути своей, были разработаны с прицелом на физическую инфраструктуру, а концепция абстракции ставит перед технологией нерешаемые вопросы. Вот и получается, что текущие технологии хранения данных далеки от тех стандартов, которые предъявляет виртулизованная среда».

Полагаю, что теперь вам совершенно ясно, каким образом хранилища данных замедляют темпы роста и развития дата-центров. Особенно это критично для облачных провайдеров, то есть тех, кто предоставляет услуги по модели IaaS, предлагая заказчику полностью виртуализованный ЦОД. Таким компаниям совершенно необходим абсолютно новый подход к передаче данных. Технология, которая позволит отделить СХД от файловой системы ОС и от вычислений в целом. И надо сказать, что такие технологии появляются. Однако вендоры настолько часто выпускают пресс-релизы о создании очередной прорывной технологии или даже изобретении рынка заново, что действительно интересные новинки зачастую пролетают мимо нашего поля зрения.

Впрочем, одной такой многообещающей технологией я не смог не заинтересоваться. Это платформа Kinetic Open Storage, созданная компанией из Купертино, но только не Apple, а Seagate. Основная задача платформенного решения в том, чтобы «научить» СХД эффективно обмениваться данными между собой, разгружая вычислительные узлы, насколько это возможно.

Работает Kinetic Open Storage следующим образом: жёсткие диски используют Ethernet как способ взаимосвязи, то есть они физически объединены посредством Ethernet, а не просто дополнены соответствующим контроллером. И данные перемещаются между дисками не с помощью файловой системы серверной ОС, а непосредственно от диска к диску или от диска к приложению, упорядоченные посредством Protocol Buffer от Google. При этом предполагается, что API для доступа к данным будет распространяться по модели Open Source.

segate2

Зачем, казалось бы, рассматривать методику отдельно взятого вендора, работающего над собственной  технологией СХД? Хотя бы по той причине, что вендор удосужился внятно артикулировать ключевые преимущества своей технологии в том виде, в котором следовало бы это делать всем остальным. Конечно, читать пресс-релиз Segate практически невозможно, учитывая, что он изобилует чрезмерным количеством определений типа «прорывной», «восхитительный» и «невероятный». Но основные преимущества прописаны вполне очевидно.

И одно из таковых — это снижение общей стоимости владения облачной инфраструктурой на 50%. Компания планирует достичь такого показателя за счет того, что KOS позволяет избавиться от специальной системы хранения данных, взяв её работу на себя. Отсутствие необходимости в дополнительных серверах снижает капитальные расходы, а операционные расходы на обслуживание неизбежно уменьшаются вследствие значительного упрощения СХД.

Одна из главных особенностей Kinetic Open Storage с точки зрения технологии заключается в том, что платформа позволяет перенести ключевые процессы управления данными с уровня операционной системы и СХД на уровень самих жёстких дисков. То есть с помощью KOS диски сами могут осуществлять миграцию данных и простое шифрование, отслеживать уровень QoS (качества обслуживания). Так дисковые массивы потребляют меньше энергии и могут напрямую обмениваться данными посредством канала, уже существующего в любом дата-центре (Ethernet). И, самое главное, система хранения данных таким образом абсолютно абстрагируется от вычислительного блока. А перенос процессов управления данными на само хранилище не только делает его дешевле, но и ускоряет операции записи/считывания информации, по заявлению Segate, более чем на 400%.

Разработчик заявляет Kintetick Open Storage как технологию, которая навсегда изменит архитектуру облачных дата-центров. Но почему речь идет именно об облаках? Да хотя бы потому, что сегодня основное направление мысли облачных провайдеров заключается в том, чтобы дать пользователям как можно больше дискового пространства за как можно меньшие деньги. А технология KOS как раз снижает операционные затраты при работе с большими объёмами статичных данных. По исследованию тех же Segate, большинство данных в облаках часто записывается, но редко используется, то есть до 90% данных статичны.

segate1

Архитектурно новая технология выглядит следующим образом. Приложения через собственные библиотеки напрямую обращаются к сети, а жёсткие диски уже как бы являются частью этой сети, так как подключены по Ethernet. Поэтому можно сказать, что приложения обмениваются данными непосредственно с дисковым хранилищем. Такая архитектура фактически решает проблему абстрагирования хранилища от остальной инфраструктуры.

В итоге получается, что Seagate разработала технологию, решающую все ключевые проблемы облачных ЦОДов одним махом. Но ведь у такой блестящей медали должна быть обратная сторона, те так ли?

Обе значимые проблемы платформы лежат в бюджетной плоскости. Первая состоит в том, что если компания решит менять архитектуру СХД на ту, которую предлагает Seagate, то ей придется переписывать существующие программы, чтобы они соответствовали KOS. Ведь приложения должны будут оперировать принципиально иными каналами и протоколами при передаче данных. Конечно, вендор предоставляет API бесплатно, но стоимость разработки никто не отменял. Другая проблема в том, что Kintetick Open Storage устраняет необходимость в существующей СХД: переделать хранилище таким образом, чтобы оно соответствовало новой архитектуре, увы, невозможно.

Разработчик пока не делится датой релиза первых коммерческих образцов, поэтому трудно сказать прямо сейчас, изменит ли KOS архитектуру облачных серверов. Но рынок в любом случае заинтересуется этой технологией, и в том, что мы вскоре увидим фактическую реализацию архитектуры, сомнений не возникает.

Категория: ИТ | Просмотров: 569 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Физический, облачный, виртуальный

Автор:Игорь Емельянов 

В процессе развития информационных технологий то и дело возникают термины и тренды, зачастую на стыке уже существующих, которые индустрия подолгу не может расшифровать сама для себя. Так было, например, с облачными технологиями. Помните, когда облака только входили в обиход, ИТ-профессионалы вокруг вас постоянно спрашивали: что это за «облака», какая именно технология за ними стоит, или это просто очередной маркетинговый термин? Помните, как нас всех сбивал с толку сам термин «облачные технологии»?

sdi1

Больше всего меня в то время удивляли люди, в том числе умудрённые опытом профессионалы, которые искали за словом «облака» конкретную софтверную или физическую составляющую, некую программу или какую-то специфичную серверную конфигурацию. В то время было популярно пытаться провести границу между облачными технологиями и классическими серверами. Злопыхатели с иронией вопрошали, где начинаются и кончаются «эти самые облака». Сегодня вопрос снят, как надоевшая мигрень. Стало понятно, что облака — это тренд, модель управления, новый подход к оперированию информационными технологиями.

Примерно то же самое в свое время было и с виртуализацией. В начале двадцать первого века само понятие дата-центра было неразрывно связано с физическими серверами. Конечно, разработка виртуальных серверов в тестовом режиме велась еще в двадцатом веке, но по факту большая часть вычислительных мощностей, которыми оперировали крупные компании, была основана на инфраструктуре, которую можно потрогать руками. Ситуация коренным образом изменилась, когда на серверный рынок вышла компания VMware, предложив такие продукты, как VMware GSX Server и VMware ESX Server. С тех пор разнообразие инноваций на рынке стало расти пропорционально выбору и сложностям, с которыми сталкивался клиент. А предложение стало действительно расти куда быстрее спроса. ИТ-менеджеры столкнулись с небывалым разнообразием опций: от физических серверов к виртуальным, к частным и открытым облакам, от проприетарных решений к Open Source.

И тогда появился вопрос: а стоят ли муки выбора и сложности управления тех преимуществ, которые даёт нам широчайший рынок инфраструктурных и архитектурных решений? Разумеется, стоит. Поскольку с инновациями и усложняющейся инфраструктурой неизбежно приходят возможности, о которых раньше можно было только мечтать. Например, «большие данные» или IaaS.

sdi2

Инфраструктура, которая открыла нам большие возможности, но значительно усложнилась, становится катализатором более чем логичного вопроса о том, как всем этим великолепием управлять. Когда управление ИТ стало слишком сложным, чтобы контролировать его системно, появилась концепция софтверной определеяемости, то, что называется software-defined. Эта идея наиболее плотно пустила свои корни в сетевой инфраструктуре, где термин SDN уже никого не удивляет. Затем софтверная определяемость стала экстраполироваться, пока не доросла до уровня собственно дата-центра. Об этом я уже писал в материале «Как хранилища данных тормозят прогресс дата-центров»:

«Первыми о SDDC заговорила VMware ещё в прошлом году, понимая под этим следующий подход: вся ИТ-инфраструктура должна быть виртуализована и представлена в виде сервиса, а контроль над ней должен быть автоматизирован программно. То есть в данном случае преимущества виртуализации используются на всех уровнях дата-центра. Три базовых уровня, которые обычно выделяют в SDDC, — это уровень абстрагирования ресурсов хранения, а также вычислительных и сетевых ресурсов, уровень программно-определяемых сервисов, функционирующих в виртуальных машинах, и уровень автоматизации всей этой инфраструктуры. Если представить себе SDDC схематически, то получается, что программно-определяемый дата-центр реализует облачную модель посредством интеллектуального ПО, которое абстрагирует аппаратные ресурсы, объединяет их в пул и выдает приложениям в необходимом количестве».

Казалось бы, на этом софтверно-определяемая история заканчивается, ведь дата-центр, по сути, является главным уровнем инфраструктуры. Однако сегодня на сцену выходит ещё одна концепция под названием SDI, Software-Defined Infrastructure («софтверно-определяемая инфраструктура»). Термин довольно многослойный, и оттого значение его необходимо пояснить. Именно для этого я и начал сегодня с облаков, поскольку понятие SDI сегодня так же туманно, как и «облачные технологии» несколько лет назад. Причем сходства есть как на идеологическом, так и на структурном уровне. Словом, те, кто помнит, как в отрасль приходили облачные технологии, сейчас довольно быстро сориентируются в том, что же такое SDI.

Во-первых, как и облака, SDI — это не единственная технология. Это группа технологий, инструментов и процессов, построенных таким образом, чтобы облегчить контроль над многослойным и хаотичным созданием рук человеческих под названием ИТ-инфраструктура, или, иначе говоря, дата-центр. Софтверно-определяемая инфраструктура — это управленческая структура для дата-центра, которая объединяет все слои и вычислительные ресурсы ЦОДа, чтобы автоматизировать управление инфраструктурой софтверными методами. Таким образом, SDI сводит физическую, виртуальную и облачную инфраструктуру в целостную платформу, управляемую единой системой.

sdi3

Фактически индустрия информационных технологий уже живет в мире, построенном по правилам SDI, где дата-центры создаются и разворачиваются нажатием пары клавиш. Чтобы упорядочить инфраструктурное разнообразие, SDI-решения предлагают дополнительный слой абстракции, который обеспечивает и автоматизирует взаимодействие физических, виртуальных и облачных компонентов ЦОДа.

Сегодня ИТ-архитекторам есть из чего выбирать, благо всевозможных технологий и слоев управления рынок предлагает немало. Главное — подобрать технологию или схему управления, которая будет максимально соответствовать поставленной задаче. И в основе концепции SDI стоит множество таких технологий. Многие из них хороши, но едва ли сегодня уже можно назвать доминирующие на рынке продукты. Но, чтобы не быть голословным и не повышать уровень абстракции, и так высокий в разговорах о виртуализации, приведу несколько примеров. Сегодня над SDI-решениями работают компании Intel, Adara Networks, VMware и многие другие. Главное, что правильный выбор одного из подобных решений — это ключ к эффективному управлению разнородной инфраструктурой ЦОДа.

Вообще, цель всей этой затеи с SDI более чем оправдывает вложенные средства. Ведь основной задачей является дата-центр, наиболее точно соответствующий запросам организации, а также наличие у компании удобных и централизованных инструментов управления этим дата-центром. А сами SDI-решения помогут ИТ-службе предоставлять компании вычислительные мощности, мониторить ресурсы и управлять ими, осуществляя все это в рамках конвергентной системы, состоящей из физической, виртуальной и облачной инфраструктуры. А подобная инфраструктура может предполагать сразу несколько дата-центров. Поэтому задача, которую берут на себя разработчики продуктов формата SDI, — это централизованное управление глобальной инфраструктурой, которая имеется у большинства крупных компаний, тем более если они перешли на облачные решения.

Категория: ИТ | Просмотров: 476 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Автор: Игорь Емельянов

Если бы меня попросили лаконично охарактеризовать событийную канву 2013 года в информационных технологиях, то мне бы хватило единственного слова — виртуализация. Одному только вашему покорному слуге — среди сотен тысяч пишущих коллег по всему миру — приходилось рассуждать о виртуализации на различных структурных и технологических уровнях раз этак десять за последний год. Оно и понятно: технология виртуализации, запущенная на массовый рынок компанией VMware в начале двухтысячных, чрезвычайно легко развязала руки не только ИТ-менеджерам, но и другим функциональным управленцам.

Если воспринимать виртуализацию на уровне ИТ-активов типа дата-центра или серверной, то стоит ещё отметить экономический взрыв, произведённый этой технологией. Ведь она превратила капитальные затраты в операционные. Вдумайтесь: по силе своего воздействия на корпоративную ИТ-экономику это почти то же самое, что изобретение потребительских кредитов!

Но, как уже было сказано, виртуализация распространялась далеко не на все структурные уровни сразу. Проще всего было виртуализовать хранение данных: облачные хранилища появились едва ли не первыми. Затем процессоры и сетевая инфраструктура, потом оперативная память. Это привело к переходу в облака не только софта (SaaS), но целых платформ, операционных систем и сред разработки (IaaS), — только затем, чтобы катарсисом всей этой пьесы стала технология IaaS, целая инфраструктура как сервис. Сегодня любой крупный облачный провайдер предоставляет услуги на всех уровнях сразу — SaaS, PaaS, IaaS.

Но частных клиентов не интересуют структурные уровни. Им подавай готовые решения проблем, что более чем логично. То есть какой-нибудь Dropbox для хранения данных, Spotify для прослушивания музыки, Netflix для просмотра фильмов. А тем, кто арендует инстансы и сервисы у провайдеров облачных услуг, нужно всё это предоставить клиентам. И до недавнего времени существовала проблема, которая фактически закрывала путь целому классу облачных решений, способному разорвать рынок программного обеспечения в клочья.

GTC 2012 Keynote - Jen-Hsun Huang

И проблема эта заключалась в виртуализации ещё одного структурного, ресурсного уровня информационной системы, а именно — графического процессора. Я говорю об этой проблеме в прошедшем времени, поскольку позавчера Amazon и NVIDIA отрапортовали о совместном решении этой проблемы. Новость заключается в том, что теперь компании, предоставляющие своим клиентам SaaS-решения, могут арендовать машины, оснащённые графическими процессорами NVIDIA GRID, и предоставлять доступ к требовательным к графике приложениям на удалённых устройствах. То есть теперь облачные вычисления становятся доступными не только для хранения, обработки данных и использования обычных приложений, но и для работы с приложениями, требующими графического ускорения.

По сути, это означает, что теперь все программы, требующие высокой графической производительности, могут поставляться через облако. А это открывает целый новый рынок: игры, графические и видеоредакторы, средства проектирования и моделирования — всё через облако! Строго говоря, эксперименты с играми через облако уже были (Onlive), равно как и с графическими редакторами (Adobe). Но они требовали наличия монструозных вычислительных и графических мощностей на стороне провайдера.

Облачные сервисы использовались лишь для хранения и передачи информации, как канал поставки услуг клиенту, но обработка графики происходила на провайдерской стороне, и это требовало слишком больших инвестиций. Конечно, Adobe брала всё это в расчёт, запуская Creative Cloud, но это компания, которая действительно может себе позволить такие капитальные расходы. А теперь мощные графические процессоры стали доступны широкой публике. И чтобы разобраться, как именно это стало возможным, обратимся к деталям.

na1

С практической стороны вся эта шумиха вокруг сотрудничества Amazon c NVIDIA заключается в том, что подписчики Amazon EC2 получили два новых инстанса и g2.2xlarge и cg1.4xlarge. Первый состоит из следующих компонентов:

  • графический процессор NVIDIA GRID на базе GK105 Kepler со ядрами 1536 CUDA и 4 Гб RAM;
  • процессор Intel Sandy Bridge с тактовой частотой 2,6 ГГц;
  • 15 Гб RAM;
  • 60 Гб SSD-хранилища.

Второй инстанс схож по комплектации, но предполагает дополнительные функции вроде памяти с исправлением ошибок (eror correcting memory). Оба доступны пока только в зонах US East (Северная Вирджиния), US West (Северная Калифорния и Орегон), и EU (Ирландия). Цена удовольствия – $0,650 за час для g2.2xlarge и $2,100 за час для cg1.4xlarge.

Как бы просто всё это ни звучало, колоссальное значение облачных GPU трудно переоценить. Помните концепцию GPU как таковую? Какой путь прошла графика, ставшая теперь частью облачного мира? Раньше все работало так: дисплею вашего компьютера или телефона сообщалась динамическая информация о расположении пикселов, цвет и расположение каждого пиксела фиксировались в специальной памяти. Это было легко запрограммировать, прописав адрес и цвет пиксела. Если вам нужно было нарисовать круг, то приходилось вычислять адрес и трансформации каждого пиксела за единицу времени.

Это было просто, но чертовски медленно. А потом компьютерные игры стали постепенно толкать индустрию вперёд и всячески усложняться. Появились текстуры, тени, сглаживание. И проявилось интересное свойство видеопамяти: вычисления, необходимые для отображения текстуры или сглаживания, пришлось запускать параллельно с другими, отвечающими за иные процессы в рамках того же кадра. Так появились графические процессоры, GPU, которые сняли вычислительный груз с процессоров. Игры и прочие графические приложения отправляют высокоуровневые операции на GPU, а те обрабатывают сотни тысяч пикселов одновременно, отправляя полученный результат в компоновщик кадра (frame builder), откуда они транслируются на дисплей. Но это в стандартной модели. А вот как выглядит аналогичный процесс в облаке, в случае NVIDIA GRID на g2-инстансе:

na2

Как вы понимаете, графический процессор в данном случае не может отправить данные на дисплей напрямую через компоновщик кадров. Поэтому команды от приложения проходят через ряд буферов (компоненты NVENC, NVFBC, NVIFR на диаграмме). После чего формируется видеопоток, сжатый с помощью кодека H.264, который можно транслировать на любое совместимое устройство. Таким образом, требовательные к графике приложения получают доступ к вычислительной мощности CPU, 3D-рендерингу в NVIDIA GRID, базам данных и облачному хранилищу AWS.

Всё это открывает реальные возможности по разработке и запуску сложных приложений, требующих графических мощностей, прямо в облаке. Это, вероятно, важнейшая веха на пути развития облачных технологий за последние несколько лет. NVIDIA уже сотрудничает с рядом разработчиков, чтобы предложить клиентам пользоваться профессиональными инструментами прямо в браузере. В списке партнеров числятся Autodesk, Revit, Maya, 3ds Max. Компания OTOY посредством фреймворка ORBX.js трудится над проектом, который позволит пользователям работать с 3D приложениями на тонких клиентах, без установки каких-либо дополнительных программ.

Платформа Agawi True Cloud планирует транслировать 3D-приложения прямо на мобильные устройства. Облачный игровой сервис Playcast Media объявил о переходе на g2-инстансы, что в перспективе сэкономит значительные средства. Приложение для визуализации медицинских данных Calgary Scientific ResolutionMD теперь может быть доступно пациентам через облако, будучи запущенным на новых инстансах с GPU.

Игры, исследовательские и научные приложения, медицинские программы, мобильные трансляции — всё это теперь доступно сотням тысяч разработчиков. А значит, вскоре нас ожидает бум профессиональных и потребительских 3D-приложений в облаке. Это ли не революция?

Категория: Наука | Просмотров: 646 | Добавил: Mirra_Sun | Дата: 21.11.2013 | Комментарии (0)

Самоуничтожающиеся данные: 10 способов автоматически стирать следы своего присутствия в интернете


Автор: Олег Нечай 

Письмо, рассыпающееся сразу после прочтения, или фотография, вспыхивающая в руках героя, — классические штампы третьесортных шпионских боевиков. Между тем подобные методы могут стать привычным способом защиты личных данных не только от коварных вражеских шпионов, но и от родного и близкого отечественного Большого Брата, представленного как госструктурами, так и всевозможными частными конторами. Старая идея в новой технологической обёртке актуальна как никогда: перед вами десять элементарных способов использования самоуничтожающейся информации при работе в интернете.

1. Самоуничтожающиеся сообщения в iOS и Android

Смартфон — одно из самых распространённых средств хищения личной информации. Адаптеры Wi-Fi и Bluetooth и даже само по себе постоянное подключение к сотовой сети делает мобильные аппараты особенно уязвимыми перед подготовленными взломщиками. Помимо перехвата данных в реальном времени, злоумышленник может получить доступ к адресной книге, истории веб-сёрфинга и, наконец, к архиву текстовых сообщений. И если на собственном аппарате вы можете сразу удалять все полученные сообщения, то как быть с теми, которые вы отправили другим адресатам? А если вы необдуманно послали кому-то сообщение в пылу спора или после пары бокалов и уже успели несколько раз пожалеть об этом?

selfdestroy-001

К счастью, есть вполне эффективные способы борьбы с подобными недоразумениями. Бесплатное приложение Frankly Messenger, существующее в версиях для Android и iOS, шифрует отправляемые сообщения, делая их видимыми для адресата только после нажатия на них и полностью удаляя их через десять секунд после открытия. Вместе с текстом удаляются и приложенные фотоснимки, так что можно не переживать за не самые удачные кадры. Кроме того, Frankly Messenger позволяет организовывать анонимные чаты, отменять отправку непрочитанных сообщений и обладает некоторыми другими полезными функциями.

selfdestroy-002

selfdestroy-003

selfdestroy-004

Ещё один вариант — бесплатное приложение Burn Note, которое также выпускается в версиях для Android и iOS. В отличие от Frankly Messenger, здесь можно самостоятельно установить время самоуничтожения отправленного сообщения, при этом фирменная технология Spotlight препятствует копированию текста такого сообщения и снятию с него скриншотов.

2. Самоуничтожающиеся фото 

Если вы опасаетесь, что какие-то ваши фотоснимки могут случайно попасть не в те руки, воспользуйтесь для их рассылки бесплатным приложением Snapchat, предлагаемом в версиях для Android и iOS. Можно установить время самоуничтожения фотографии от 1 до 10 секунд. Основная идея Snapchat заключается в возможности быстрого обмена фотографиями с добавлением рисунков, обработки или каких-то надписей. При этом создатели Snapchat особо оговаривают, что их программа не защищена от снятия скриншотов.

selfdestroy-005

selfdestroy-006

В последней версии Snapchat появилась также любопытная функция под названием Snapchat Stories, позволяющая объединить в одну серию, доступную всем друзьям, фотоснимки за целые сутки. Каждое фото в такой серии видно подписчикам в течение 24 часов, после чего оно удаляется, уступая место новым кадрам.

3. Самоуничтожающиеся вложения

Платное приложение Silent Text, входящее в состав пакета Silent Circle Mobile, позволяет рассылать с электронными письмами вложения объёмом до 100 Мбайт, «срок годности» которых вы можете установить самостоятельно. Среди опций Silent Text предусмотрено автоматическое уничтожение вложений после определённого времени, что может пригодиться для защиты конфиденциальных документов от хранения и распространения.

selfdestroy-007

Ориентация Silent Text на серьёзное деловое применение очевидна, поэтому за пользование сервисом даже в самом «лёгком» мобильном варианте разработчики требуют $9,95 в месяц или $99,95 в год. 

4. Самоуничтожающиеся заметки

Текстовые заметки с функцией самоуничтожения можно отправлять с помощью интернет-сервисов Privnote или NoteDIP. Оба сайта работают сходным образом: на большом жёлтом поле вы пишете нужный текст, жмёте кнопку «создать заметку», после чего формируется специальная ссылка, которую вы и отправляете адресату. После прочтения сообщение автоматически уничтожается, при этом вы можете уничтожить его и сразу, до отправки ссылки. Сам текст можно свободно копировать в другие приложения.

selfdestroy-008

selfdestroy-009

На сайте NoteDIP можно дополнительно защитить заметку паролем и установить уведомление о прочтении, которое придёт на указанный вами адрес электронной почты.

selfdestroy-010

Если в сервисах Privnote и NoteDIP сообщения автоматически уничтожаются одновременно с их открытием в браузере, то destructingmessage.com Destructing Message позволяет установить чёткие временные рамки стирания такого сообщения — от 15 секунд до 5 минут. 

selfdestroy-011

Вы можете посылать сообщения с сайта Destructing Message или через электронную почту с анонимным отправителем. Таймер запускается после открытия письма и нажатия на ссылку либо с момента создания самой ссылки. Если получатель так и не откроет электронное письмо, то сообщение будет автоматически стёрто через 90 дней. 

5. Звукозаписи со сроком годности

Известное криптографическое приложение Wickr, помимо собственно шифрования текстов, изображений, видео- и аудиопосланий, способно также автоматически уничтожать сделанные с его помощью звукозаписи.

selfdestroy-012

selfdestroy-023

selfdestroy-024

Просто запишите звуковое сообщение и перед отправкой установите таймер. Разумеется, само сообщение будет также зашифровано и защищено от перехвата.

6. Самоуничтожающиеся письма в Gmail

Самый популярный в мире почтовый сервис Gmail, принадлежащий компании Google, также можно снабдить функцией автоматического уничтожения писем. Для этого нужно установить расширение mxHero Email Toolbox для браузера Chrome. 

selfdestroy-014

Если применять это расширение, то после написания письма оно ... Читать дальше »

Категория: ИТ | Просмотров: 637 | Добавил: Mirra_Sun | Дата: 20.11.2013 | Комментарии (0)


Что будут делать первые приложения, основанные на интеллекте IBM Watson
Автор: Олег Парамонов

В следующем году IBM планирует открыть доступ к программному интерфейсу интеллектуальной системы Watson. По замыслу компании, сторонние разработчики будут использовать её в собственных приложениях. Но каких именно? Составить представление об этом можно, изучив сведения о приложениях, над которыми уже работают партнёры IBM.Так выглядел Watson два года назад. С тех пор он сильно похудел. Он больше не нуждается в целом суперкомпьютере - достаточно единственного сервера Power 750.

Так выглядел Watson два года назад. С тех пор он сильно похудел и больше не нуждается в целом суперкомпьютере: достаточно единственного сервера Power 750.

Первое приложение создала компания Fluid. Оно называется Fluid Expert Personal Shopper и рассчитано на организации, работающие в сфере электронной коммерции. Посетитель интернет-магазина, оборудованного Fluid Expert Personal Shopper, сможет задавать машине вопросы на естественном языке и получать осмысленные ответы. Watson будет заведовать, во-первых, пониманием слов потенциального покупателя, а во-вторых, подбором рекомендаций, наиболее соответствующих заданным вопросам и другой информации о пользователе.

Следующее приложение разрабатывают в компании MD Buyline, специализирующейся на поставке медицинского оборудования и программного обеспечения. Оно ориентировано на врачей и называется соответственно — Hippocrates. Обязанностями «Гиппократа» с мозгом Watson будут обработка информации, которую накопили медицинские учреждения, и выработка быстрых и основанных на имеющихся фактах рекомендаций, способных помочь специалистам в момент принятия решения.

Последнее приложение для Watson, о котором было объявлено на этой неделе, принадлежит компании Welltok. Оно представляет собой персонализированный «путеводитель» с оздоровительным уклоном. Watson будет составлять план действий, индивидуально подобранных для каждого пользователя, хвалить за выполнение рекомендаций и вести беседы о здоровье на естественном языке.
Категория: ИТ | Просмотров: 329 | Добавил: Mirra_Sun | Дата: 19.11.2013 | Комментарии (0)