To niemal pewne - za 4 lata skończy nam się miejsce na dane. Ilość informacji, jakie produkujemy, rośnie szybciej niż pojemność dysków twardych. Do końca roku wygenerujemy blisko 60 zettabajtów - to trzydziestokrotnie więcej niż przed dekadą. Jednak rekord ten zostanie szybko pobity. Już za 4 lata będziemy generowali blisko trzy razy więcej informacji niż obecnie.
Pierwszy dysk twardy, na którym można było przechowywać prywatne dane, stworzony przez firmę IBM miał pojemność zaledwie 5 MB. Dzisiejsze podstawowe modele smartfonów posiadają pamięć wielkości 64 GB. To ponad 12 tysięcy razy więcej
Zapotrzebowanie na pamięć drastycznie rośnie, lecz po przekroczeniu granicy 1 TB w komputerach stacjonarnych i laptopach, wyścig na cyferki wytracił impet
Czemu tak się stało? Czy nie potrzebujemy bardziej pojemnych dysków?
Niezupełnie. Pojawiły się smartfony i to one stają się teraz urządzeniami, które służą do kontaktu użytkownika z siecią i konsumpcji treści. Są teraz centralnym punktem rozrywki większości internautów, co widać choćby w wydatkach reklamowych. Jak wynika z raportu iAB Europe, Adex Benchmark 2019 Report, w 2019 roku europejskie wydatki na kampanie mobilne po raz pierwszy były większe od kwot przeznaczonych na reklamy desktopowe - przekroczyły 30 mld euro
Powódź danych
Według informacji zebranych przez portal Statista.com w lipcowym raporcie “Volume of data/information created worldwide” (Wielkość danych generowanych na całym świecie), tylko w tym roku nasza aktywność w sieci spowoduje powstanie kolejnych 59 zettabajtów danych.
Na tę wartość składają się zarówno osobiste pliki przechowywane przez użytkowników detalicznych, jak np. chmura, jak i treści firmowe, w skład których wchodzą informacje z systemów i ruchu w sieci. To tzw. Big Data. To informacja, rozumiana jako wynik interakcji użytkownika z siecią internetową. Ma olbrzymią wartość biznesową, przez co jest wielokrotnie porównywana do ropy naftowej, która zrewolucjonizowała życie, przemysł i gospodarkę. Informacja pochodząca z Big Data ma być właśnie takim “next big thing” w biznesie i jest wykorzystywana szczególnie w reklamie online i firmowych systemach analitycznych.
Ile danych to dużo?
Czy blisko 60 zettabajtów to dużo? Najpopularniejszy obecnie dysk twardy montowany w laptopach czy konsolach do gier ma pojemność 1 terabajta, a to mniej więcej tyle ile miliard takich dysków połączonych ze sobą. Gdybyśmy zebrali taką ilość, bylibyśmy w stanie wypełnić nimi blisko 18 basenów olimpijskich.
Patrząc na statystyki z przeszłości, łatwo zauważyć, że zaledwie 10 lat temu było to trzydzieści razy mniej niż obecnie, bo około 2 zettabajty. A co przyniesie przyszłość? Jak prognozują specjaliści z Statista, już za 4 lata tegoroczny wynik zostanie zwielokrotniony, osiągając 159 zettabajtów generowanych danych.
Informacyjna powódź to konsekwencja zmiany nawyków, do czego walnie przyczynił się koronawirus. Wzrosła nie tylko konsumpcja mediów cyfrowych, co automatycznie generuje więcej danych, ale i korzystanie z e-sklepów. Jak donosi serwis eMarketer, w samych Stanach Zjednoczonych rynek e-commerce zwiększy się w tym roku o 18%.
Większe zaangażowanie w świecie cyfrowym dostrzegają marketerzy. Chętniej inwestują w reklamy online, dzięki czemu ten kanał znacznie łagodniej przejdzie przez kryzys wywołany pandemią niż tradycyjne media. Co prawda jak twierdzi firma WARC, w ujęciu globalnym wydatki spadną o ponad 16%, jednak na niektórych rynkach, np. w Wielkiej Brytanii, prognozuje się nawet niewielki wzrost wydatków na kampanie online.
Duży wpływ na generowanie dużej ilości danych ma również postępujące w ostatnich latach przebiegunowanie modelu własności z “mieć” na “pożyczać”. Netflix czy Spotify - platformy streamingu online skradły serca internautów. A nie jest tajemnicą, że w oparciu o dane o zachowaniu internautów na serwisach streamingowych, firmy tworzą lepiej spersonalizowane produkty. Filmy czy muzyka stworzone pod dyktando algorytmów? Jak twierdzi serwis Medium.com, to już się dzieje - produkcje z serii “Originals”, takie jak np. popularny House of Cards Netflix Originals tworzone są na podstawie analizy zachowanie widzów i dane empiryczne.
Za chwilę skończy się miejsce
Ludzie stali się informacyjnymi chomikami. Mało co jest usuwane, a niemal wszystko magazynowane, tylko inaczej. Zamiast po prostu przenosić nasze pliki na kolejne dyskietki, przesyłamy je do chmury. A gdzie dokładnie? Hyunjun Park z Catalogue uważa, że dla większości użytkowników nie ma to znaczenia, tak długo jak mają do nich dostęp.
W rezultacie pomysł, że pewnego dnia może nam zabraknąć miejsca na dane, jest tak trudny do zrozumienia, jak sugestia, że może nam zabraknąć wody.
Kiedy myślimy o pamięci masowej w chmurze, myślimy o tych nieskończonych magazynach danych - powiedział Hyunjun Park, CEO z Catalogue, firmy zajmującej się przechowywaniem danych. - Ale chmura to tak naprawdę komputer kogoś innego. Większość ludzi nie zdaje sobie sprawy, że generujemy tak dużo danych, że tempo, w jakim je generujemy, znacznie przewyższa nasze możliwości ich przechowywania. W bardzo niedalekiej przyszłości będziemy mieli ogromną lukę między danymi, które generujemy, a tym, jak możemy je przechowywać
Takim obrotem spraw nie martwią się firmy, które posiadają kompetencje analityczne, w ich przypadku apetyt na dane jest olbrzymi, a im ich więcej - tym lepiej. Czerpią pełnymi garściami z rewolucji świata Big Data, wyprzedzając swoich konkurentów i… oczekiwania klientów. Przetwarzając dane, skupiają się tylko na najświeższych informacjach, które odzwierciedlają realne preferencje klientów. Stare dane są nadpisywane przez nowe. To o wiele efektywniejsze rozwiązanie, które nie obciąża tak wirtualnych magazynów danych.
W przypadku reklamy online świeżość danych wpływa na skuteczność kampanii. Jeżeli dostawca utrzymuje stare dane, sprzed kilku miesięcy, bardzo prawdopodobne jest, że intencje zakupowe użytkowników dawno się zmieniły. Osoba, która poszukiwała butów do biegania w marcu, zapewne nie potrzebuje ich już po sezonie, a więc wykorzystanie nieaktualizowanych danych w reklamie online prowadzi do wyświetlania nietrafionych reklam i marnowania budżetów. Usuwanie i nadpisywanie danych nie tylko redukuje liczbę informacji, ale podnosi jakość usług w cyfrowym marketingu.
Kiedy więc zabraknie przestrzeni na serwerach, które przechowują dane? Jak podaje portal Statista, w 2024 wygenerujemy 159 zettabajtów, Park uważa, że do tego czasu będziemy w stanie przechowywać nie więcej jak około 12,5 procent z tego. Prowadzone są jednak badania nad technologiami, które pozwolą na realizowanie nowych sposobów kodyfikacji zapisu danych, np. wykorzystując ludzkie DNA, choć obecnie tworzenie syntetycznego DNA jest procesem powolnym i kosztownym, a więc nie jest jeszcze opłacalne komercyjnie.
Era łowców danych
W jaki sposób dynamicznie zwiększający się wolumen danych wpływa na pogłębienie wiedzy o użytkownikach internetu? Im więcej cyfrowych śladów generują internauci, tym bardziej precyzyjne profile można tworzyć dzięki wykorzystaniu algorytmów sztucznej inteligencji.
Maszyny zbierają pojedyncze informacje, jak odwiedzone strony, czas spędzony w serwisie czy język, i grupują konsumentów np. w segment osób zainteresowanych częściami samochodowymi czy użytkowników, którzy planują zakup nowego sprzętu audio do salonu. Następnie takiej grupie konsumentów wyświetlana jest spersonalizowana reklama - może odnosić się nie tylko do poszukiwanego produktu, ale również do zainteresowań kupujących.
Im zatem większy zbiór generowanych danych, tym większa wiedza o zachowaniu użytkowników online, a w ich przetwarzaniu i wyciąganiu wniosków pomaga sztuczna inteligencja. Człowieka ograniczają naturalne przeszkody - jak percepcja, koncentracja, siły witalne. W powtarzalnych czynnościach analitycznych systemy sprawdzają się doskonale.