06.11.2017

Големи данни / Big Data

Големи данни / Big Data – Дума на деня – EVS Translations
Големи данни / Big Data – Дума на деня – EVS Translations

Изразът big data (големи данни) описва голям обем данни, а през последните десетилетия става въпрос за данни с много голям обхват, структурирани или неструктурирани, събрани от значителен брой източници, които се обработват и анализират допълнително от машини, за да се извлекат и разберат по-добре тенденции и модели.

Например в света на бизнеса Big Data е синоним на бизнес анализи, но в по-голям мащаб и с използването на повече технологии. Големите данни най-често се съхраняват в компютърни бази данни и се анализират с помощта на софтуер, специално създаден да обработва сложен набор от данни. Именно превръщането на необработените данни в полезна информация или т. нар. data mining (извличане на данни), което води до прозрения, е в основата на модерния голям бизнес.

Терминът Big Data се появява за пръв път в писмена форма през 1980 г. в научния доклад The Old New Social History and The New Old Social History на Чарлз Тили от Университета в Мичиган, където в обръщение към  Конференцията за нови насоки в историята, отнасящи се до анализи на плодовитостта, проведени в САЩ чрез набиране на огромно количество информация, обработвана с помощта на машини, авторът заявява, че: „Американската репутация за събиране на големи данни и създаване на големи изследователски екипи, е силно преувеличена“.

Необходими са близо 20 години, преди терминът да навлезе във вестникарските заглавия, когато Джон Маси представя на събрание на Асоциацията за модерни изчислителни системи USENIX доклад със заглавие „Big Data…and the Next Wave of Infrastress“ (презентацията от 1998 г. може да се прочете тук), а изковаването на термина, естествено, най-често се приписва на разговорите на маса в компанията за компютърен хардуер и софтуер Silicon Graphics, където Маси заема длъжността главен съветник по научните въпроси.

Панел, озаглавен „Автоматизация или взаимодействие: какво е най-добро за големите данни?“, представен на Конференцията по въпросите на визуализацията, организирана от Института по електротехника и електроника IEEE през 1999г.  в Сан Франциско, е последван от доклад, озаглавен „Големите данни − динамични модели за макроикономическо измерване и прогнозиране“, като терминът е представен на Осмия световен конгрес на иконометричното дружество и е дефиниран от Франсис Х. Дайболд така: „Големите данни се отнасят до изригване в количествено отношение (а понякога и в качествено) на наличните и потенциално приложими данни, до голяма степен в резултат на скорошни и безпрецедентни подобрения в технологиите за записване и съхранение на данни“.

Две години по-късно, в „Критични въпроси за големите данни“, определението е следното: „културно, технологично и научно явление, което се основава на взаимодействието между: (1) Технологии: увеличаване на изчислителната мощност и алгоритмична точност за събиране, анализ, свързване и сравняване на голям набор от данни. (2) Анализ: използване на голям набор от данни за идентифициране на модели, за обосноваване на икономически, социални, технически и правни претенции“.

Естествено, големите данни са явление, но не количеството информация е от значение, а начинът, по който бизнесът и обществото боравят с нея. В областта на бизнеса, анализът на големия набор от данни съдържа потенциал да подобри работата на всеки отдел в компанията. Той дава възможност на корпорациите да правят по-задълбочени проучвания на пазара и потребителите, чрез проследяване поведението на клиентите, а това води до по-добри стратегически решения и идеи за подобряване и персонализиране на продуктите и услугите, както и подобряване опита на клиентите. Големият набор от данни стимулира вътрешната ефективност и операциите, подпомага вземането на решения, гарантира по-добра безопасност на данните и т.н.

Явлението бързо се разраства, като „Световният пазар на големите данни и бизнес анализи“ или BDA,  се очаква да нарасне от 130.1 млрд. долара тази година до над 203 млрд. долара през 2020 година.