Главная » Гаджеты » #тренды | Большие данные

#тренды | Большие данные

«Тот, кто владеет информацией, владеет миром». Похоже, вовек еще эта фраза не звучала этак верно, как сегодня. Во втором десятилетии 21 века информация стала не лишь сырьем, инструментом и оружием, однако также самым главным активом, за обладание которым сражаются корпорации и правительства. Об этом мы ныне и поговорим.

В современной деловой среде распоряжение данными является важнейшим показателем успеха предприятия. Многие компании начали осознавать важность навыков использования информации. Ныне так называемые «большие данные» — это важнейший тренд, какой распространяется на самые разные направления бизнеса и технологий.

Термин «Большие данные» (Big data) используется для обозначения инициатив и технологий, которые включают в себя разнообразные и стремительно увеличивающиеся активы данных самых разных категорий. Многообразие этой информации осложняет их обработку, и те, кому удается это мастерить на благо своего бизнеса, относятся ныне к числу успешных.

Big Data предполагает создание больших объемов сложных данных, их хранение, извлечение и разбор. Дисциплина «большие данные» основывается на принципе трех V — Volume (объем), Velocity (скорость) и Variety (многообразие).

Объем. Двадцать лет назад обыкновенный компьютер имел жесткий диск со средним объемом 10 гигабайт. Ныне социальные платформы, такие будто Facebook, ежедневно обрабатывают более полмиллиарда терабайт данных. Воздушные суда Boeing генерируют сотни терабайт летных данных за одинешенек-единственный рейс. Широкое использование смартфонов и планшетов обеспечивает выработку миллиардов терабайт всегда обновляющейся информации, которая является подобный же пестрой и разнообразной, будто и наш мир.

Скорость. Системы учета кликов в Интернете каждую секунду анализируют миллионы действий пользователей Сети. Изменения в состоянии торгов на фондовых биржах обновляются в течение микросекунд. Игровые серверы могут поддерживать единовременное подключение миллионов пользователей, которые за каждую секунду осуществляют масса действий. Это только несколько примеров, говорящих о том, с какими бешеными темпами генерируются новые данные.

Многообразие. Понятие «большие данные» распространяется не лишь на буквы и цифры: он включает в себя аудио, видео, разрозненный текст, данные из соцсетей и многое другое. И там, где одни видят гигантскую свалку ненужных сведений, другие видят бесценный актив, способный изменить мир.

Термин Big Data впервой был введен главой компании O’Reilly Роджером Мугалусом еще в 2005 году. Однако вопросом о том, будто обрабатывать доступные данные, начали задаваться весьма давно. На самом деле первые записи о попытках использовать данные для управления деятельностью предприятий имеют года, превышающий 7000 лет.

Собственно в те времена в Месопотамии начали вести учет сбора урожаев и разведения скота. Принципы учета продолжали эволюционировать и улучшаться, и в 1663 году демограф Джон Граунт начал фиксировать и разбирать показатели смертности в Лондоне. Делал он это для того, чтоб общественность оценила масштабы распространения бубонной чумы в те времена.

В своей книге «Естественные и политические наблюдения над списками умерших» Граунт подарил миру первоначальный в истории статистический анализ данных. Книжка позволила пролить свет на основные причины смертей в Англии 17-го века. Благодаря этой работе Граунт прославился будто первопроходец в сфере статистики.

С тех времен принципы учета данных продолжили улучшаться, однако ничего экстраординарного в этом направлении не возникло до тех пор, покамест конец 19-го века не возвестил о вступлении в информационную эру. Новая эпоха началась в 1889 году, когда Герман Холлерит изобрел вычислительную систему для сортировки данных переписи населения.

Следующий приметный скачок произошел в 1937 году, когда пост президента США занимал Франклин Рузвельт. После того будто в Конгрессе был принят Закон о государственной безопасности, от правительства потребовали вести учет миллионов американцев. В итоге правительство обратилось к компании IBM с просьбой разработать систему считывания перфокарт, которые были призваны хранить огромные объемы данных.

Однако первой машиной для обработки данных принято находить систему «Колосс», которая была разработана британцами в 1943 году для расшифровки кодов нацистов во пора Второй мировой войны. Машина занималась поиском любых паттернов, которые регулярно появлялись в перехваченных сообщениях. Система работала с рекордной скоростью и смогла возделывать 5000 знаков в секунду, что позволяло за пару часов выполнять работу, на которую ранее уходили недели.

Первый дата-середина был учрежден американским правительством в 1965 году и был предназначен для хранения миллионов отпечатков пальцев и записей об уплаченных налогах. Записи фиксировались на магнитных лентах, которые систематизировались и хранились в специальном помещении. Считается, что это было первым электронным хранилищем информации.

В 1989 году британский специалист по информатике Тим Бернерс-Ли изобрел всемирную компьютерную сеть, задавшись целью гарантировать обмен информацией посредством гипертекстовой системы. Тогда он даже представить не мог, какое воздействие на мир окажет его изобретение, впоследствии получившее наименование «Интернет». После начала девяностых все больше устройств начин подключаться к глобальной сети, а значит, темпы генерирования данных стали вырастать еще активней.

В 1995 году был создан первоначальный суперкомпьютер. Эта машина была способна за секунды выполнять работу, на которую у простого человека потребовались бы тысячи лет. А после наступил 21 век.

Тут мы вновь обратимся к 2005 году, когда Роджер Мугалус ввел термин «большие данные». В этом же году компания Yahoo создала ныне открытую платформу Hadoop, мишень которой состояла в индексировании итого Интернета. Сегодня Hadoop используется миллионами предприятий для получения и обработки колоссальных объемов данных.

За последние 10 лет социальные сети стремительно развивались, а объемы информации, создаваемой пользователями, ежедневно росли. Компании и правительства одно за другим начали реализацию проектов в сфере Big Data. Так, в 2009 году правительство Индии создало крупнейшую базу биометрических данных, в которой хранятся отпечатки пальцев и сканы радужных оболочек очи всех граждан страны.

В 2010 году маковка Google Эрик Шмидт выступил на калифорнийской конференции Techonomy, рассказав, что за последние семь лет компания накопила 5 эксабайт данных. Вряд ли он мог представить, что к 2017 году аналогичный объем информации будет вырабатываться ежедневно. При этом темпы роста и не думают замедляться.

Взор в прошлое позволил нам составить примерное понятие о том, какие тенденции нас ждут в будущем. Если два десятилетия назад самыми успешными были предприятия, которые владеют информацией, то ныне успех имеют те, кто умеют наилучшим образом интерпретировать и использовать имеющуюся информацию. Вполне логично можно ожидать, что в будущем успех будет зависеть от способности принудить большие данные содействовать в принятии верных стратегических решений.

Наверняка у большинства из нас при упоминании понятия «большие данные» в голове возникает огромное помещение, заставленное множеством серверов с мигающими огоньками. Однако чтобы понять, что выговор идет о действительно важном феномене, изменившем правила игры, довольно обратиться к нескольким примерам.

Недавние выборы президента США показали, как эффективным может оказаться применение новейших информационных технологий. В то пора как Хиллари Клинтон прибегала к традиционным методам и привлекала в собственный штаб знаменитостей, команда Дональда Трампа решила сфокусировать внимание на изучении предпочтений и потребительского поведения миллионов американцев. Получив точные данные о том, чего хочет электорат, штаб кандидата от республиканцев смог более эффективно отвечать на требования активных пользователей Интернета. В итоге победа Трампа не выглядит подобный уж неожиданной, если зачислить во внимание то, какая большая и результативная труд была проделана.

Или возьмем, к примеру, стриминг-сервис Netflix, какой за последние годы стал одним из самых популярных производителей контента. Поставляя видеоматериалы зрителям, компания успела накопить гигантский объем статистических данных, досконально изучив предпочтения пользователей: какие сюжеты им больше по душе, каких актеров они любят, какие сцены пересматривают несколько один, а какие пропускают. В итоге любой новый сериал Netflix попадает в точку и зарабатывает самые высокие рейтинги на IMDB. Если вы по-прежнему считаете, что заклад успеха состоит в таланте шоураннеров, то, скорее итого, вы слишком наивны.

В микроскопическом масштабе большие данные можно поставить на службу вашему самосовершенствованию. Так, ваш фитнес-браслет или умные часы может собирать информацию о потребляемых калориях, пройденном расстоянии, сердечном пульсе, а также статистику сна. Сбор и разбор таких сведений позволит вам скорректировать свои привычки, что при должном терпении надлежит будет позитивно сказаться на вашем здоровье и долголетии.

Уместно, и в глобальном масштабе большие данные активно помогают медицине. Уже сейчас обработка накопленных статистических данных позволяет не лишь в считанные минуты с высокой точностью диагностировать различные заболевания, однако и эффективно прогнозировать их возникновения. Это надлежит будет обезопасить людей от затаившейся угрозы и избавить миллионы жизней.

Один из ярких тому примеров — перрон ResearchKit, которую компания Apple запустила в 2016 году. Благодаря использованию мобильных приложений медицинские специалисты собирают данные о состоянии здоровья пользователей. Это позволяет не лишь распространять уход за больными за пределы клиники и обеспечивать их скорейшее поправка, но и накапливать необходимые данные для повышения эффективности взаимодействия с будущими пациентами.

Разумеется, большими данными активно пользуются и правоохранительные органы. Так, Агентство национальной безопасности США использует имеющимися данными для выявления и предупреждения террористической активности. Корпорации давным-давно пользуются решениями в этой области для профилактики кибератак и несанкционированных проникновений в системы. Полиция тоже экспериментирует с Big Data, пытаясь на основании информации из публичных профилей определять потенциальную угрозу для правопорядка того или иного гражданина.

Тут нелишним будет вспомнить показательную историю 2014 года, когда чикагская полиция при помощи компьютерной системы составила список из 400 жителей города, которые имеют все предпосылки для того, чтоб нарушить закон. Полицейские посетили этих граждан и провели с ними профилактические беседы, однако история наделала немало шума, в первую очередь из-за бесцеремонного вторжения в личную существование. Хотя проект со скандалом закрыли, дудки никаких свидетельств того, что компьютерный разбор потенциальных криминальных наклонностей граждан был прекращен.

Хотя эпоха больших данных все еще находится на начальной стадии, достижениями этой дисциплины уже активно пользуются будто частные корпорации, так и правительства. Однако главное, чтобы этот ценный актив не оказался в распоряжении тех, кто мог бы использовать его во вред человечеству.

#тренды | Нейросети

Hi-News.ru — Новости высоких технологий.

Оставить комментарий