wtorek, kwiecień 23, 2024
Follow Us
czwartek, 02 sierpień 2018 11:19

Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów Wyróżniony

Napisane przez Newseria
Oceń ten artykuł
(0 głosów)
Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów fot. Pexels.com

Już niemal 4 mld ludzi korzysta obecnie z Internetu na całym świecie.

Codziennie wysyłanych jest ponad 172 mld e-maili czy prawie 500 mln tweetów.

Informacje zawarte w Internecie są kopalnią wiedzy o użytkownikach, co może być wykorzystywane np. przez firmy reklamowe, ale również do prognozowania społecznych czy gospodarczych trendów. Zaawansowaną analizą danych zajmują się polscy naukowcy z nowo otwartego Centrum Rafinacji Informacji.

– Centrum Rafinacji Informacji zajmuje się dostarczaniem informacji z przestrzeni informacyjnej, która jest odpowiednio obrobiona oraz spreparowana, przygotowana pod kątem użytkownika i jego potrzeb. Ktoś może powiedzieć, że każdy ma „dostęp” do informacji. Natomiast problemem jest dostęp do właściwej informacji i właściwe jej zinterpretowanie. Bez narzędzi informatycznych i technologii informacyjnych, dostęp do tych informacji i ich obrabianie jest bardzo utrudnione

– mówi w rozmowie z agencją informacyjną Newseria Innowacje dr hab. inż. Wiesław Cetera z Centrum Rafinacji Informacji.

Rafinacja informacji to technologia wyszukiwania i analizowania w czasie rzeczywistym dużych zbiorów tekstowych. W Centrum Rafinacji Informacji dostępne w sieci informacje będą poddawane zaawansowanej analizie, co pozwoli nie tylko na historyczną ocenę tego, co się wydarzyło, ale ma także umożliwić przygotowanie prognoz dotyczących procesów społecznych, politycznych i gospodarczych. Analizowane są informacje z portali społecznościowych, forów dyskusyjnych oraz wszelkich innych otwartych źródeł zawierających dane ustrukturyzowane, ale także nieustrukturyzowane – bardzo trudne do analizy przy wykorzystaniu tradycyjnych metod i technologii analitycznych.

– Jeśli mówimy o dużych zbiorach, mówimy przede wszystkim o zbiorach nieustrukturyzowanych, tzn. takich, które w przeciwieństwie do zbiorów bazodanowych nie mają jasno określonej struktury, wyróżnionych pól w rekordach itd. Jedyną rzeczą, którą możemy wyróżnić jest np. data, może źródło, a poza tym są to zbiory tekstowe. Czyli przetwarzamy teksty i szukamy tego, co nas w konkretnym zadaniu interesuje – mówi Wiesław Cetera.

W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Zebrane w ten sposób dane są oczyszczane (rafinowane) i przeszukiwane pod kątem kluczowych słów oraz powiązań (sentymentów) z wydźwiękiem pozytywnym lub negatywnym. W momencie identyfikacji jakiegoś trendu, naukowcy przechodzą do kolejnego etapu – prognozowania przy wykorzystaniu danych historycznych.

Zespół naukowców CRI prowadzi obecnie zaawansowane analizy dotyczące trendów technologicznych i procesów o największym potencjale innowacyjności na zlecenie Narodowego Centrum Badań i Rozwoju. Centrum dostarcza prognozy dotyczące rozwoju konkretnych technologii, co ułatwia podejmowanie strategicznych decyzji o inwestowaniu środków publicznych.

– Narzędzia, które zostały opracowane, mogą być wykorzystywane do zwykłych badań medioznawczych, które prowadzą różnego rodzaju agencje badań społecznych. Porównując to w aspekcie kosztów, to jest w zasadzie bez porównania, bo my wyniki możemy mieć natychmiast, a co za tym idzie również dużo taniej – twierdzi Wiesław Cetera.

Potencjał tkwiący w Big Data dostrzegły także władze Wrocławia. Agencja Audience Network przygotowując kampanię reklamową miasta do konkursu European Best Destination 2018, wykorzystała narzędzia do profilowania użytkowników Internetu, by w ten sposób dotrzeć do polskich emigrantów. Dzięki zastosowaniu narzędzi do analizy Big Data udało się dotrzeć do blisko 30 tys. użytkowników. Wrocław przegonił w konkursie takie miasta jak Amsterdam, Barcelona czy Paryż, zdobywając 67 proc. wszystkich głosów.

– U zarania wykorzystania rafinacji informacji stały badania prof. Gogołka, który prowadził je w kontekście wyborów prezydenckich. Wyniki, które wtedy otrzymał były bardzo bliskie, jak nie identyczne z tymi, które były w rzeczywistości – przekonuje ekspert.

Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc.

Z danych Internet Live Stats wynika, że obecnie z Internetu korzysta już niemal 4 mld ludzi. Codziennie wysyłanych jest niemal 175 mld e-maili i 500 mln tweetów, a ponad 4,5 mld filmów trafia każdego dnia na YouTube.

a