Analiza nastrojów - Sentiment analysis

Analiza sentymentu (znana również jako eksploracja opinii lub sztuczna inteligencja emocji ) to wykorzystanie przetwarzania języka naturalnego , analizy tekstu , lingwistyki komputerowej i biometrii do systematycznego identyfikowania, wyodrębniania, określania ilościowego i badania stanów afektywnych i informacji subiektywnych. Analiza nastrojów jest szeroko stosowana w materiałach głosowych klientów , takich jak recenzje i odpowiedzi na ankiety, media internetowe i społecznościowe oraz materiały dotyczące opieki zdrowotnej w zastosowaniach od marketingu, przez obsługę klienta, po medycynę kliniczną.

Przykłady

Cel i wyzwania związane z analizą sentymentu można pokazać na kilku prostych przykładach.

Proste przypadki

  • Coronet ma najlepsze linie wśród całodniowych krążowników.
  • Bertram ma głęboki kadłub w kształcie litery V i łatwo płynie po morzach.
  • Pastelowe krążowniki z lat 80. z Florydy są brzydkie.
  • Nie lubię starych krążowników kabinowych .

Bardziej wymagające przykłady

  • Nie lubię krążowników kabinowych. ( Obsługa negacji )
  • Nielubienie jednostek pływających to nie moja bajka. (Negacja, odwrócona kolejność słów )
  • Czasami naprawdę nienawidzę RIBów . ( Przysłówkowy modyfikuje sentyment)
  • Naprawdę chciałbym wyjść w taką pogodę! (Prawdopodobnie sarkastyczny )
  • Chris Craft wygląda lepiej niż Limestone. (Dwie nazwy marek , określenie docelowej postawy jest trudne).
  • Chris Craft wygląda lepiej niż Limestone, ale Limestone projektuje zdatność do żeglugi i niezawodność. (Dwie postawy, dwie marki).
  • Film zaskakuje wieloma niepokojącymi zwrotami akcji. (Termin negatywny używany w sensie pozytywnym w niektórych dziedzinach).
  • Powinieneś zobaczyć ich dekadenckie menu deserów. (Termin dotyczący postaw zmienił ostatnio polaryzację w niektórych dziedzinach)
  • Uwielbiam mój telefon komórkowy, ale nie poleciłbym go żadnemu z moich kolegów. (Kwalifikowany pozytywny sentyment, trudny do skategoryzowania)
  • Koncert w przyszłym tygodniu będzie właściwy koide9! („Quoi de neuf?”, po francusku „co nowego?”).

Rodzaje

Podstawowym zadaniem w analizie sentymentu jest klasyfikacja polaryzacji danego tekstu na poziomie dokumentu, zdania lub cechy/aspektu — czy opinia wyrażona w dokumencie, zdaniu lub encji jest pozytywna, negatywna czy neutralna. Zaawansowana klasyfikacja sentymentów „poza polaryzacją” dotyczy na przykład stanów emocjonalnych, takich jak radość, złość, wstręt, smutek, strach i zaskoczenie.

Prekursorami analizy sentymentalnej są General Inquirer, które dostarczało wskazówek dotyczących ilościowego określania wzorców w tekście oraz, osobno, badania psychologiczne, które badały stan psychiczny danej osoby na podstawie analizy jej zachowania werbalnego.

Następnie metoda opisana w patencie przez Volcani i Fogel skupiała się w szczególności na sentymencie i identyfikowała poszczególne słowa i frazy w tekście w odniesieniu do różnych skal emocjonalnych. Obecny system oparty na ich pracy, zwany EffectCheck, przedstawia synonimy, które można wykorzystać do zwiększenia lub zmniejszenia poziomu wywoływanych emocji w każdej skali.

Wiele innych późniejszych wysiłków było mniej wyrafinowanych, wykorzystując jedynie polarny pogląd na sentyment, od pozytywnego do negatywnego, takie jak praca Turneya i Panga, który zastosował różne metody wykrywania polaryzacji odpowiednio recenzji produktów i recenzji filmów. Ta praca jest na poziomie dokumentu. Można również sklasyfikować biegunowość dokumentu na wielostopniowej skali, czego próbowali między innymi Pang i Snyder: Pang i Lee rozszerzyli podstawowe zadanie klasyfikowania recenzji filmu jako pozytywnej lub negatywnej, aby przewidzieć liczbę gwiazdek na 3 lub 4-gwiazdkową, a Snyder przeprowadził dogłębną analizę recenzji restauracji, przewidując oceny pod kątem różnych aspektów danej restauracji, takich jak jedzenie i atmosfera (w pięciogwiazdkowej skali).

Pierwsze kroki w celu połączenia różnych podejść — uczenia się, leksykalnego, opartego na wiedzy itp. — zostały podjęte na wiosennym sympozjum AAAI 2004, na którym językoznawcy, informatycy i inni zainteresowani badacze najpierw uzgodnili zainteresowania i zaproponowali wspólne zadania oraz zestawy danych porównawczych dla systematyczne badania obliczeniowe dotyczące afektu, atrakcyjności, subiektywności i sentymentu w tekście.

Mimo że w większości metod klasyfikacji statystycznej klasa neutralna jest ignorowana przy założeniu, że teksty neutralne leżą w pobliżu granicy klasyfikatora binarnego, kilku badaczy sugeruje, że jak w każdym problemie polaryzacji, należy zidentyfikować trzy kategorie. Ponadto można udowodnić, że określone klasyfikatory, takie jak Max Entropy i SVM, mogą skorzystać na wprowadzeniu neutralnej klasy i poprawić ogólną dokładność klasyfikacji. Zasadniczo istnieją dwa sposoby działania z klasą neutralną. Albo algorytm najpierw identyfikuje język neutralny, odfiltrowuje go, a następnie ocenia resztę pod kątem pozytywnych i negatywnych nastrojów, albo tworzy klasyfikację trójstronną w jednym kroku. To drugie podejście często obejmuje szacowanie rozkładu prawdopodobieństwa we wszystkich kategoriach (np. naiwne klasyfikatory Bayesa zaimplementowane przez NLTK ). To, czy i jak używać neutralnej klasy, zależy od charakteru danych: jeśli dane są wyraźnie pogrupowane w neutralny, negatywny i pozytywny język, sensowne jest odfiltrowanie neutralnego języka i skupienie się na polaryzacji między pozytywnymi i negatywnymi nastrojami. Jeśli natomiast dane są w większości neutralne z niewielkimi odchyleniami w kierunku pozytywnego i negatywnego afektu, strategia ta utrudniłaby wyraźne rozróżnienie tych dwóch biegunów.

Inną metodą określania sentymentu jest użycie systemu skalowania, w którym słowom często kojarzonym z negatywnym, neutralnym lub pozytywnym sentymentem przypisywana jest powiązana liczba w skali od -10 do +10 (od najbardziej negatywnej do najbardziej pozytywnej) lub po prostu od 0 do dodatniej górnej granicy, takiej jak +4. Umożliwia to dostosowanie sentymentu danego terminu do jego otoczenia (najczęściej na poziomie zdania). Gdy fragment tekstu nieustrukturyzowanego jest analizowany przy użyciu przetwarzania języka naturalnego , każda koncepcja w określonym środowisku otrzymuje ocenę na podstawie sposobu, w jaki słowa sentymentów odnoszą się do pojęcia i skojarzonego z nim wyniku. Umożliwia to przejście do bardziej wyrafinowanego rozumienia sentymentu, ponieważ jest teraz możliwe dostosowanie wartości sentymentu koncepcji w stosunku do modyfikacji, które mogą go otaczać. Na przykład słowa, które intensyfikują, rozluźniają lub negują sentyment wyrażany przez koncept, mogą wpłynąć na jego wynik. Alternatywnie, tekstom można nadać pozytywną i negatywną ocenę siły nastrojów, jeśli celem jest określenie nastrojów w tekście, a nie ogólnej polaryzacji i siły tekstu.

Istnieją różne inne rodzaje analizy sentymentu, takie jak analiza sentymentu oparta na aspektach, analiza sentymentu stopniowego (pozytywna, negatywna, neutralna), wielojęzyczna analiza sentymentu i wykrywanie emocji.

Identyfikacja podmiotowości/obiektywizmu

Zadanie to potocznie definiuje się jako zaklasyfikowanie danego tekstu (najczęściej zdania) do jednej z dwóch klas: obiektywnej lub subiektywnej. Ten problem może być czasem trudniejszy niż klasyfikacja polaryzacji. Subiektywność słów i fraz może zależeć od ich kontekstu, a obiektywny dokument może zawierać subiektywne zdania (np. artykuł prasowy cytujący opinie ludzi). Co więcej, jak wspomniała Su, wyniki w dużej mierze zależą od definicji subiektywności stosowanej podczas opisywania tekstów. Jednak Pang wykazał, że usunięcie obiektywnych zdań z dokumentu przed sklasyfikowaniem jego polaryzacji pomogło poprawić wydajność.

Subiektywna i obiektywna identyfikacja, pojawiające się podzadania analizy sentymentu w celu wykorzystania funkcji składniowych, semantycznych i wiedzy o uczeniu maszynowym do identyfikacji zdania lub dokumentu to fakty lub opinie. Świadomość uznawania faktów i opinii nie jest nowa, prawdopodobnie po raz pierwszy zaprezentowana przez Carbonell na Uniwersytecie Yale w 1979 roku.

Termin cel odnosi się do zdarzenia niosącego informacje faktyczne.

  • Przykład obiektywnego zdania: „Aby zostać wybrany na prezydenta Stanów Zjednoczonych, kandydat musi mieć co najmniej trzydzieści pięć lat”.

Termin subiektywny opisuje incydent, który zawiera nieprawdziwe informacje w różnych formach, takie jak osobiste opinie, osądy i przewidywania. Znane również jako „państwa prywatne” wspomniane przez Quirk et al. W poniższym przykładzie odzwierciedla prywatne stany „My, Amerykanie”. Co więcej, podmiot docelowy komentowany w opiniach może przybierać różne formy, od produktu materialnego do niematerialnych zagadnień tematycznych, o których mowa w Liu(2010). Ponadto Liu(2010) zaobserwował trzy typy postaw: 1) opinie pozytywne, 2) opinie neutralne, 3) opinie negatywne.

  • Przykład subiektywnego zdania: „My Amerykanie musimy wybrać prezydenta dojrzałego i zdolnego do podejmowania mądrych decyzji”.

Ta analiza jest problemem klasyfikacji.

Kolekcje słów lub wskaźników fraz każdej klasy są zdefiniowane w celu zlokalizowania pożądanych wzorców w tekście bez adnotacji. Dla subiektywnej ekspresji stworzono inną listę słów. Listy subiektywnych wskaźników w słowach lub frazach zostały opracowane przez wielu badaczy zajmujących się stanami pola przetwarzania języka i języka naturalnego w Riloff et al. (2003). Do mierzenia danych wyrażeń należy stworzyć słownik reguł ekstrakcji. Z biegiem lat, w wykrywaniu subiektywnym, proces wyodrębniania cech przechodził od ręcznego nadzorowania cech w 1999 r. do zautomatyzowanego uczenia się funkcji w 2005 r. Obecnie metody automatycznego uczenia się mogą dalej dzielić się na nadzorowane i nienadzorowane uczenie maszynowe . Wyodrębnianie wzorców z adnotacjami w procesie uczenia maszynowego i tekstem bez adnotacji zostało szeroko zbadane przez badaczy akademickich.

Jednak badacze dostrzegli kilka wyzwań związanych z opracowaniem ustalonych zestawów reguł dla wyrażeń z szacunkiem. Wiele wyzwań związanych z tworzeniem reguł wynika z natury informacji tekstowych. Sześć wyzwań zostało rozpoznanych przez kilku badaczy: 1) wyrażenia metaforyczne, 2) rozbieżności w pismach, 3) kontekstowe, 4) reprezentowane słowa o mniejszej liczbie zastosowań, 5) wrażliwe na czas i 6) stale rosnąca objętość.

  1. Wyrażenia metaforyczne. Tekst zawiera wyrażenie metaforyczne, które może mieć wpływ na wydajność ekstrakcji. Poza tym metafory przybierają różne formy, co mogło przyczynić się do wzrostu wykrywalności.
  2. Rozbieżności w pismach. W przypadku tekstu uzyskanego z Internetu rozbieżności w stylu pisania docelowych danych tekstowych dotyczą różnych gatunków i stylów pisania
  3. Kontekstowe. Klasyfikacja może się różnić w zależności od subiektywizmu lub obiektywizmu poprzednich i następnych zdań.
  4. Atrybut zależny od czasu. Zadanie jest utrudnione przez wrażliwy na czas atrybut niektórych danych tekstowych. Jeśli grupa badaczy chce potwierdzić jakiś fakt w wiadomościach, potrzebuje więcej czasu na weryfikację krzyżową, niż wiadomości stają się nieaktualne.
  5. Słowa wskazujące o mniejszej liczbie zastosowań.
  6. Ciągle rosnąca objętość. Zadanie utrudnia również ogrom danych tekstowych. Stale rosnąca natura danych tekstowych sprawia, że ​​zadanie jest niezwykle trudne dla badaczy do wykonania na czas.

Wcześniej badania koncentrowały się głównie na klasyfikacji na poziomie dokumentów. Jednak klasyfikacja na poziomie dokumentu jest mniej dokładna, ponieważ artykuł może zawierać różne typy wyrażeń. Badania naukowe sugerują, że zestaw artykułów prasowych ma dominować w ekspresji obiektywnej, podczas gdy wyniki pokazują, że składał się on w ponad 40% z ekspresji subiektywnej.

Aby przezwyciężyć te wyzwania, naukowcy doszli do wniosku, że skuteczność klasyfikatora zależy od precyzji uczących się wzorców. A uczeń pobiera duże ilości danych treningowych z adnotacjami, które przewyższają osoby trenujące w zakresie mniej wszechstronnych funkcji subiektywnych. Jednak jedną z głównych przeszkód w wykonywaniu tego typu pracy jest ręczne generowanie dużego zbioru danych z adnotacjami. Ręczna metoda adnotacji była mniej preferowana niż automatyczne uczenie się z trzech powodów:

  1. Różnice w rozumieniach. W ręcznym zadaniu adnotacji między adnotatorami może wystąpić niezgoda co do tego, czy jedno wystąpienie jest subiektywne, czy obiektywne z powodu niejednoznaczności języków.
  2. Błędy ludzkie. Zadanie ręcznej adnotacji to drobiazgowe zadanie, którego zakończenie wymaga intensywnej koncentracji.
  3. Czasochłonne. Zadanie ręcznej adnotacji to żmudna praca. Riloff (1996) pokazuje, że ukończenie 160 tekstów kosztuje 8 godzin dla jednego adnotatora.

Wszystkie te wymienione przyczyny mogą mieć wpływ na skuteczność i skuteczność klasyfikacji subiektywnej i obiektywnej. W związku z tym opracowano dwie metody ładowania początkowego do uczenia się wzorców językowych z danych tekstowych bez adnotacji. Obie metody zaczynają się od kilku słów początkowych i danych tekstowych bez adnotacji.

  1. Meta-Bootstrapping autorstwa Riloffa i Jonesa w 1999 roku. Poziom pierwszy: Generuj wzorce ekstrakcji w oparciu o predefiniowane reguły i wyodrębnione wzorce według liczby słów źródłowych, które każdy wzorzec posiada. Poziom drugi: 5 najważniejszych słów zostanie zaznaczonych i dodanych do słownika. Powtarzać.
  2. Bazyliszkowy ( B ootstrapping pproach do S emantic L exicon I nduction stosując S emantic K nowledge) przez Thelen i Riloff. Krok pierwszy: Wygeneruj wzorce wyodrębniania Krok drugi: Przenieś najlepsze wzorce z puli wzorców do puli słów kandydatów. Krok trzeci: 10 najlepszych słów zostanie zaznaczonych i dodanych do słownika. Powtarzać.

Ogólnie rzecz biorąc, algorytmy te podkreślają potrzebę automatycznego rozpoznawania i ekstrakcji wzorców w zadaniu subiektywnym i obiektywnym.

Klasyfikator subiektywny i obiektowy może ulepszyć aplikacje serwalowe przetwarzania języka naturalnego. Jedną z głównych zalet klasyfikatora jest to, że spopularyzował on praktykę procesów decyzyjnych opartych na danych w różnych branżach. Według Liu zastosowania identyfikacji podmiotowej i obiektywnej zostały wdrożone w biznesie, reklamie, sporcie i naukach społecznych.

  • Klasyfikacja recenzji online: w branży biznesowej klasyfikator pomaga firmie lepiej zrozumieć informacje zwrotne na temat produktu i uzasadnienie recenzji.
  • Przewidywanie cen akcji: W branży finansowej klaser wspomaga model przewidywania, przetwarzając informacje pomocnicze z mediów społecznościowych i inne informacje tekstowe z Internetu. Wcześniejsze badania japońskich cen akcji przeprowadzone przez Dong et.al. wskazuje, że model z modułem subiektywnym i obiektywnym może działać lepiej niż modele bez tej części.
  • Analiza mediów społecznościowych.
  • Klasyfikacja zwrotna uczniów.
  • Podsumowanie dokumentu: klasyfikator może wyodrębnić komentarze określone przez cel i zbierać opinie wygłoszone przez jedną konkretną jednostkę.
  • Złożone odpowiedzi na pytania. Klasyfikator może analizować złożone pytania, klasyfikując temat języka lub obiektywny i skoncentrowany cel. W badaniu Yu et al. (2003) badacz opracował zdanie i poziom dokumentu, który skupiał fragmenty opinii o tożsamości.
  • Aplikacje specyficzne dla domeny.
  • Analiza wiadomości e-mail: subiektywny i obiektywny klasyfikator wykrywa spam, śledząc wzorce językowe za pomocą słów docelowych.

Oparte na cechach/aspektach

Odnosi się do określania opinii lub sentymentów wyrażanych na temat różnych cech lub aspektów podmiotów, np. telefonu komórkowego, aparatu cyfrowego czy banku. Cechą lub aspektem jest atrybut lub element jednostki, np. ekran telefonu komórkowego, usługa dla restauracji lub jakość obrazu kamery. Zaletą analizy sentymentu opartej na funkcjach jest możliwość uchwycenia niuansów dotyczących obiektów zainteresowania. Różne funkcje mogą generować różne reakcje sentymentalne, na przykład hotel może mieć dogodną lokalizację, ale przeciętne jedzenie. Problem ten obejmuje kilka podproblemów, np. zidentyfikowanie odpowiednich podmiotów, wyodrębnienie ich cech/aspektów oraz ustalenie, czy opinia wyrażona na temat każdej cechy/aspektu jest pozytywna, negatywna czy neutralna. Automatyczna identyfikacja cech może odbywać się metodami syntaktycznymi, modelowaniem tematycznym lub metodą głębokiego uczenia . Bardziej szczegółowe omówienie tego poziomu analizy sentymentu można znaleźć w pracy Liu.

Metody i funkcje

Istniejące podejścia do analizy sentymentu można podzielić na trzy główne kategorie: techniki oparte na wiedzy, metody statystyczne i podejścia hybrydowe. Techniki oparte na wiedzy klasyfikują tekst według kategorii afektu w oparciu o obecność jednoznacznych słów afektu, takich jak szczęśliwy, smutny, przestraszony i znudzony. Niektóre bazy wiedzy nie tylko wymieniają oczywiste słowa afektywne, ale także przypisują dowolnym słowom prawdopodobne „powinowactwo” do poszczególnych emocji. Metody statystyczne wykorzystują elementy uczenia maszynowego, takie jak ukryta analiza semantyczna , maszyny wektorów pomocniczych , „ worek słów ”, „ wzajemne informacje punktowe ” do orientacji semantycznej i głębokie uczenie . Bardziej wyrafinowane metody próbują wykryć posiadacza sentymentu (tj. osobę, która utrzymuje ten stan afektywny) i cel (tj. istotę, wobec której odczuwany jest afekt). Aby wydobyć opinię w kontekście i uzyskać cechę, o której mówca wyraził opinię, stosuje się relacje gramatyczne słów. Relacje zależności gramatycznych uzyskuje się poprzez głębokie parsowanie tekstu. Podejścia hybrydowe wykorzystują zarówno uczenie maszynowe, jak i elementy reprezentacji wiedzy, takie jak ontologie i sieci semantyczne, w celu wykrycia semantyki wyrażanej w subtelny sposób, np. poprzez analizę pojęć, które nie przekazują bezpośrednio istotnych informacji, ale są niejawnie powiązane do innych koncepcji, które to robią.

Narzędzia oprogramowania typu open source oraz szereg bezpłatnych i płatnych narzędzi do analizy nastrojów wdrażają uczenie maszynowe , statystyki i techniki przetwarzania języka naturalnego w celu automatyzacji analizy nastrojów w dużych zbiorach tekstów, w tym na stronach internetowych, wiadomościach online, internetowych grupach dyskusyjnych, recenzjach online, blogi internetowe i media społecznościowe. Z drugiej strony systemy oparte na wiedzy wykorzystują publicznie dostępne zasoby, aby wyodrębnić semantyczne i afektywne informacje związane z pojęciami języka naturalnego. System może pomóc w przeprowadzeniu afektywnego, zdroworozsądkowego rozumowania . Analizę sentymentu można również przeprowadzić na treści wizualnej, tj. obrazach i filmach (patrz Multimodalna analiza sentymentu ). Jednym z pierwszych podejść w tym kierunku jest SentiBank wykorzystujący parę przymiotników i rzeczowników reprezentujących treść wizualną. Ponadto zdecydowana większość podejść do klasyfikacji sentymentów opiera się na modelu torby słów, który pomija kontekst, gramatykę, a nawet kolejność słów . Podejścia, które analizują nastroje oparte na tym, jak słowa komponują znaczenie dłuższych fraz, przyniosły lepsze wyniki, ale wiążą się z dodatkowymi adnotacjami.

W analizie sentymentu wymagany jest komponent analizy ludzkiej, ponieważ zautomatyzowane systemy nie są w stanie analizować historycznych tendencji poszczególnych komentujących lub platformy i często są nieprawidłowo klasyfikowane w wyrażanych przez nich opiniach. Automatyzacja wpływa na około 23% komentarzy, które są poprawnie klasyfikowane przez ludzi. Jednak ludzie często się nie zgadzają i twierdzi się, że porozumienie międzyludzkie zapewnia górną granicę, do której zautomatyzowane klasyfikatory sentymentów mogą w końcu osiągnąć.

Ocena

Dokładność systemu analizy sentymentu polega w zasadzie na tym, jak dobrze zgadza się on z ludzkimi osądami. Jest to zwykle mierzone za pomocą miar wariantowych opartych na precyzji i pamięci w dwóch docelowych kategoriach tekstów negatywnych i pozytywnych. Jednak według badań ludzie oceniający zazwyczaj zgadzają się tylko w około 80% przypadków (patrz Wiarygodność między oceniającymi ). Tak więc program, który osiąga 70% dokładność w klasyfikowaniu sentymentów, radzi sobie prawie tak dobrze, jak ludzie, nawet jeśli taka dokładność może nie brzmieć imponująco. Gdyby program był „właściwy” w 100% przypadków, ludzie nadal nie zgadzaliby się z nim w około 20% przypadków, ponieważ tak bardzo nie zgadzają się z jakąkolwiek odpowiedzią.

Z drugiej strony systemy komputerowe będą popełniać zupełnie inne błędy niż osoby oceniające, a zatem liczby nie są całkowicie porównywalne. Na przykład, system komputerowy będzie miał problemy z negacją, przesadą, żartami lub sarkazmem, które zazwyczaj są łatwe w obsłudze dla ludzkiego czytelnika: niektóre błędy popełniane przez system komputerowy mogą wydawać się człowiekowi zbyt naiwne. Ogólnie rzecz biorąc, kwestionowano użyteczność praktycznych, komercyjnych zadań analizy sentymentu, tak jak jest ona definiowana w badaniach naukowych, głównie dlatego, że prosty jednowymiarowy model sentymentu od negatywnego do pozytywnego dostarcza raczej mało przydatnych informacji dla klienta martwiącego się wpływ dyskursu publicznego na np. markę lub reputację firmy.

Aby lepiej dopasować się do potrzeb rynku, ocena analizy sentymentu została przesunięta do bardziej zadaniowych mierników, formułowanych wspólnie z przedstawicielami agencji PR i specjalistami od badań rynku. Na przykład w zestawie danych ewaluacyjnych RepLab skupiono się w mniejszym stopniu na treści rozważanego tekstu, a bardziej na wpływie danego tekstu na reputację marki .

Ponieważ ocena analizy tonacji staje się coraz bardziej oparta na zadaniach, każda implementacja wymaga osobnego modelu szkoleniowego, aby uzyskać dokładniejszą reprezentację tonacji dla danego zestawu danych.

Web 2.0

Rozwój mediów społecznościowych, takich jak blogi i sieci społecznościowe, podsycił zainteresowanie analizą nastrojów. Wraz z mnożeniem się recenzji, ocen, rekomendacji i innych form wyrażania opinii w Internecie opinia internetowa stała się swego rodzaju wirtualną walutą dla firm, które chcą promować swoje produkty, identyfikować nowe możliwości i zarządzać swoją reputacją. Ponieważ firmy starają się zautomatyzować proces filtrowania szumu, rozumienia rozmów, identyfikowania odpowiednich treści i odpowiedniego działania, wiele osób zwraca się teraz do dziedziny analizy sentymentu. Sprawę dodatkowo komplikuje pojawienie się anonimowych platform mediów społecznościowych, takich jak 4chan i Reddit . Jeśli w web 2.0 chodziło tylko o demokratyzację publikowania, następny etap sieci może równie dobrze opierać się na demokratyzowaniu data mining wszystkich publikowanych treści.

Jeden krok w kierunku tego celu został osiągnięty w badaniach. Kilka zespołów badawczych na uniwersytetach na całym świecie skupia się obecnie na zrozumieniu dynamiki nastrojów w społecznościach elektronicznych poprzez analizę nastrojów. Na przykład projekt CyberEmotions niedawno określił rolę negatywnych emocji w prowadzeniu dyskusji na portalach społecznościowych.

Problem polega na tym, że większość algorytmów analizy nastrojów używa prostych terminów do wyrażania opinii na temat produktu lub usługi. Jednak czynniki kulturowe, niuanse językowe i różne konteksty sprawiają, że niezwykle trudno jest przekształcić ciąg tekstu pisanego w prosty sentyment za lub przeciw. Fakt, że ludzie często nie zgadzają się co do sentymentu tekstu, ilustruje, jak wielkim zadaniem jest dla komputerów uzyskanie tego właściwego. Im krótszy ciąg tekstu, tym trudniejszy.

Chociaż krótkie ciągi tekstowe mogą stanowić problem, analiza nastrojów w ramach mikroblogowania wykazała, że Twitter może być postrzegany jako ważny wskaźnik nastrojów politycznych w Internecie. Nastroje polityczne w tweetach wskazują na bliską zgodność ze stanowiskami politycznymi partii i polityków, co wskazuje, że treść wiadomości na Twitterze w wiarygodny sposób odzwierciedla krajobraz polityczny offline. Ponadto wykazano, że analiza nastrojów na Twitterze uchwyciła nastroje społeczne związane z cyklami reprodukcji człowieka na całym świecie, a także inne problemy mające znaczenie dla zdrowia publicznego, takie jak niepożądane reakcje na leki.

Chociaż analiza sentymentu jest popularna w domenach, w których autorzy wyrażają swoją opinię raczej wprost („film jest niesamowity”), takich jak media społecznościowe i recenzje produktów, dopiero niedawno opracowano solidne metody dla innych domen, w których sentyment jest silnie ukryty lub pośredni. Na przykład w artykułach prasowych – głównie ze względu na oczekiwaną obiektywność dziennikarską – dziennikarze często opisują działania lub zdarzenia, a nie wprost stwierdzają polarność informacji. Wcześniejsze podejścia wykorzystujące słowniki lub funkcje płytkiego uczenia maszynowego cierpiały z powodu braku możliwości uchwycenia „znaczenia między wierszami”, ale ostatnio badacze zaproponowali podejście oparte na głębokim uczeniu i zestaw danych, aby móc analizować nastroje w artykułach prasowych.

Zastosowanie w systemach rekomendujących

Udowodniono, że w przypadku systemu rekomendującego analiza sentymentu jest cenną techniką. System rekomendacji ma na celu przewidzenie preferencji elementu docelowego użytkownika. Systemy rekomendacji głównego nurtu działają na jawnym zbiorze danych. Na przykład filtrowanie grupowe działa na macierzy ocen, a filtrowanie oparte na treści działa na metadanych elementów.

W wielu serwisach społecznościowych lub witrynach e-commerce użytkownicy mogą zamieszczać recenzje, komentarze lub opinie dotyczące przedmiotów. Te generowane przez użytkowników teksty stanowią bogate źródło opinii na temat opinii użytkowników na temat wielu produktów i przedmiotów. Potencjalnie w przypadku elementu taki tekst może ujawnić zarówno powiązaną funkcję/aspekty elementu, jak i opinie użytkowników na temat każdej funkcji. Opisane w tekście cechy/aspekty elementu odgrywają tę samą rolę, co metadane w filtrowaniu opartym na treści , ale te pierwsze są bardziej wartościowe dla systemu rekomendacji. Ponieważ te cechy są szeroko wymieniane przez użytkowników w swoich recenzjach, można je uznać za najważniejsze cechy, które mogą znacząco wpłynąć na wrażenia użytkownika związane z produktem, podczas gdy metadane produktu (zazwyczaj dostarczane przez producentów, a nie konsumentów) może ignorować funkcje, które dotyczą użytkowników. W przypadku różnych elementów o wspólnych cechach użytkownik może nadawać różne nastroje. Ponadto funkcja tego samego przedmiotu może otrzymywać różne opinie od różnych użytkowników. Nastroje użytkowników dotyczące funkcji można traktować jako wielowymiarowy wynik oceny, odzwierciedlający ich preferencje dotyczące elementów.

W oparciu o cechy/aspekty i nastroje wyodrębnione z tekstu generowanego przez użytkownika można zbudować hybrydowy system rekomendacji. Istnieją dwa rodzaje motywacji do polecania użytkownikowi przedmiotu kandydata. Pierwszą motywacją jest to, że przedmiot kandydujący ma wiele cech wspólnych z przedmiotami preferowanymi przez użytkownika, a drugą motywacją jest to, że przedmiot kandydujący ma wysokie opinie na temat swoich cech. W przypadku preferowanego przedmiotu uzasadnione jest przypuszczenie, że przedmioty o tych samych cechach będą miały podobną funkcję lub użyteczność. Tak więc te elementy będą również prawdopodobnie preferowane przez użytkownika. Z drugiej strony, w przypadku wspólnej cechy dwóch przedmiotów kandydujących, inni użytkownicy mogą dać pozytywne nastawienie jednemu z nich, a drugiemu negatywne. Oczywiście wysoko oceniany przedmiot powinien być rekomendowany użytkownikowi. Opierając się na tych dwóch motywacjach, dla każdej pozycji kandydującej można skonstruować kombinację wyniku rankingowego podobieństwa i oceny nastrojów.

Oprócz trudności samej analizy nastrojów, stosowanie analizy nastrojów w recenzjach lub informacjach zwrotnych napotyka również wyzwanie spamu i stronniczych recenzji. Jeden kierunek pracy skupia się na ocenie przydatności każdego przeglądu. Źle napisana recenzja lub opinia nie jest pomocna dla systemu rekomendacji. Poza tym recenzja może być zaprojektowana tak, aby utrudniać sprzedaż docelowego produktu, a tym samym szkodzić systemowi rekomendacji, nawet jeśli jest dobrze napisana.

Badacze odkryli również, że długie i krótkie formy tekstu generowanego przez użytkowników powinny być traktowane inaczej. Ciekawy wynik pokazuje, że krótkie recenzje są czasami bardziej pomocne niż długie, ponieważ łatwiej jest odfiltrować szum w krótkim tekście. W przypadku tekstu długiego rosnąca długość tekstu nie zawsze powoduje proporcjonalny wzrost liczby cech lub sentymentów w tekście.

Lamba & Madhusudhan wprowadzają nowy sposób zaspokojenia potrzeb informacyjnych dzisiejszych użytkowników bibliotek poprzez przepakowanie wyników analizy nastrojów platform mediów społecznościowych, takich jak Twitter, i udostępnienie ich jako skonsolidowanej usługi opartej na czasie w różnych formatach. Ponadto proponują nowy sposób prowadzenia marketingu w bibliotekach z wykorzystaniem social media mining i analizy sentymentu.

Zobacz też

Bibliografia