Rozpoczęcie dzisiaj: nowe wspólne badanie mające na celu ograniczenie nadużyć na Twitterze

Dzięki licznym metodom nadużycia w Internecie można znacznie zmniejszyć - jeśli dowiemy się również, które metody faktycznie działają w danych sytuacjach.

autorzy: Susan Benesch i J. Nathan Matias

Przemoc w Internecie stała się tak powszechna i powszechna, że ​​stanowi poważne wyzwanie dla dobrobytu publicznego na całym świecie. Podobnie jak inne złożone problemy społeczne, wymaga rygorystycznego, różnorodnego poszukiwania rozwiązań. Nie można tego rozwiązać, próbując usunąć wszystkie szkodliwe treści online (nawet jeśli byłoby to technicznie możliwe do osiągnięcia), ponieważ nawet takie drakońskie zasady nie zapobiegłyby wyrządzeniu szkody większej ilości treści. To jak przywoływanie niebezpiecznej żywności bez zapobiegania skażeniu i sprzedaży nowej żywności lub odholowanie rozbitych samochodów bez zwiększania bezpieczeństwa nowych samochodów. Nadużycia nie można rozwiązać żadną pojedynczą metodą, ponieważ jest ono publikowane w wielu formach, przez wiele różnych osób i z wielu powodów.

Dzięki licznym metodom nadużycia w Internecie można znacznie zmniejszyć - jeśli dowiemy się również, które metody faktycznie działają w danych sytuacjach. W ciągu 35 lat historii Internetu pojawiło się kilka obiecujących pomysłów, ale większość z nich nigdy nie była systematycznie testowana. Z powodu braku dowodów firmy technologiczne mogą upierać się w praktykach, które pogarszają nadużycia, i mogą przeoczyć proste pomysły, które mogłyby pomóc milionom ludzi.

Badania wykazały, że kiedy instytucje wyraźnie publikują zasady, ludzie są bardziej skłonni do ich przestrzegania.

Dzisiaj Twitter zacznie testować taki pomysł: pokazanie użytkownikom reguł platformy internetowej poprawi zachowanie na tej platformie. Normy społeczne, które są przekonaniami ludzi na temat tego, jakie instytucje i inne osoby uważają za akceptowalne zachowanie, silnie wpływają na to, co ludzie robią, a czego nie. Badania wykazały, że kiedy instytucje wyraźnie publikują zasady, ludzie są bardziej skłonni do ich przestrzegania. Mamy również wczesne dowody z badań Nathana ze społecznościami reddit, że uwidocznienie zasad może poprawić zachowanie w Internecie. W rozpoczętym dzisiaj eksperymencie Twitter publikuje swoje zasady, aby sprawdzić, czy poprawi to uprzejmość.

Zaproponowaliśmy ten pomysł na Twitterze i zaprojektowaliśmy eksperyment, aby go ocenić. Ten projekt jest także pionierem otwartego, opartego na dowodach podejścia do poprawy doświadczeń ludzi w Internecie, przy jednoczesnej ochronie ich prywatności. Badacze z przemysłu i uniwersytetów współpracowali już wcześniej. To, co czyni ten wysiłek wyjątkowym, polega na tym, że postanowiliśmy go prowadzić jako otwartą współpracę w ramach ograniczeń prawnych, etycznych i naukowych. Chroni to użytkowników Twittera, zabezpiecza wiarygodność naszej pracy i zapewnia, że ​​zdobyta z niej wiedza będzie dostępna dla każdego - nawet dla innych firm internetowych.

Ten projekt jest także pionierem otwartego, opartego na dowodach podejścia do poprawy doświadczeń ludzi w Internecie, przy jednoczesnej ochronie ich prywatności.

Mamy nadzieję, że ten projekt dostarczy praktycznej wiedzy na temat zapobiegania nadużyciom w Internecie, a nasz proces zainspiruje do dalszych przejrzystych, niezależnych ocen wielu innych pomysłów na ograniczenie nadużyć w Internecie.

Proces badawczy

Podczas testowania pomysłów na zapobieganie nadużyciom nasz zespół badawczy testuje również proces niezależnej, zewnętrznej oceny polityki i interwencji projektowych podejmowanych przez firmy technologiczne. Oto jak to działa.

Niezależność

Nasza niezależność od Twittera jest podstawą tego procesu. Jesteśmy naukowcami akademickimi, nie pracujemy dla Twittera, ani nie szukaliśmy ani nie otrzymywaliśmy pieniędzy z Twittera na ten projekt. Ustanawiamy dwa warunki realizacji projektu we współpracy z firmą: dzielenie się informacjami potrzebnymi do analizy wyników oraz zachowanie swobody publikowania wyników w recenzowanym czasopiśmie naukowym. Negocjowaliśmy i podpisaliśmy umowy prawne, w których Twitter zgodził się na te warunki i zgodził się chronić tajemnice handlowe w kwestiach technicznych niezwiązanych z naszymi głównymi pytaniami.

Prywatność użytkownika

Aby chronić prywatność, firma przekaże nam tylko anonimowe, zagregowane informacje. Ponieważ nie otrzymamy informacji umożliwiających identyfikację żadnej osoby lub konta na Twitterze, nie możemy i nie będziemy wspominać nikogo ani jego tweetów w naszych publikacjach.

Prywatność ma kluczowe znaczenie dla naszego procesu, który ogranicza dane, z którymi pracujemy, chroni dane podczas analizy i ogranicza wykorzystanie jakichkolwiek danych tylko do tego badania. Opracowaliśmy badanie za pomocą Twittera w sposób, który pozwala nam ocenić eksperyment bez konieczności poznawania nazwisk lub innych danych osobowych dowolnego konta. Po zakończeniu badania Twitter przygotuje zagregowany zestaw danych do naszej analizy. Dane z Twittera pozostaną w naszym zaszyfrowanym systemie, w którym przeprowadzimy naszą analizę i nie będziemy udostępniać danych poza tym systemem. Po potwierdzeniu integralności otrzymywanych danych będziemy postępować zgodnie z uzgodnionym planem analizy wyników. Ponieważ wzajemna ocena może zająć trochę czasu, a ponieważ inni badacze mogą poprosić nas o ponowne sprawdzenie szczegółów, przechowujemy dane i wszelkie kopie zapasowe przez dwa lata po zakończeniu badania, a następnie usuwamy je wszystkie.

Przejrzystość i odpowiedzialność

Aby zachować jak największą przejrzystość, publicznie ogłaszamy badanie przed jego rozpoczęciem. Ponieważ nie możemy tego teraz szczegółowo opisać, nie zagrażając wiarygodności wyników, znaleźliśmy dwie alternatywy. Po pierwsze, pełny projekt badania został zatwierdzony przez dwa uniwersyteckie komitety etyczne (których zadaniem jest upewnienie się, że badacze przestrzegają zasad chroniących ludzi, których mogą dotyczyć badania). Po drugie, złożyliśmy nasz plan analizy - szczegółowy opis sposobu przeprowadzenia badania - z neutralną stroną trzecią o nazwie Open Science Framework. Zapewnia to, że my i Twitter możemy ponosić odpowiedzialność za dokładnie to, co robimy.

Ta praktyka złożenia planu neutralnej stronie trzeciej nazywa się rejestracją wstępną, co oznacza, że ​​szczegółowo opisaliśmy nasze hipotezy, dokładnie, w jaki sposób Twitter przeprowadziłby interwencję, jakie wyniki zaobserwowalibyśmy i jakie metody statystyczne użyłby do analizy wyników - wszystko przed rozpoczęciem badania. To gwarantuje, że wykonujemy analizę dokładnie tak, jak planowaliśmy, zanim zobaczyliśmy wyniki, nawet jeśli ta analiza przynosi rozczarowujące ustalenia. Rejestracja wstępna, najlepsza praktyka w otwartej nauce, chroni wiarygodność badań naszego zespołu i zaangażowania Twittera. Przesłaliśmy nasz plan analizy do Open Science Framework - neutralnej strony trzeciej. Kiedy badanie się zakończy i będziemy gotowi opublikować nasze wyniki, upublicznimy plan na OSF, aby inni mogli potwierdzić, że zastosowaliśmy się do planu i, co równie ważne, mogą powtórzyć nasze badanie.

Udostępnimy nasze odkrycia każdemu, aby można było z nich swobodnie korzystać. Prześlemy nasze badania do akademickiej recenzji i opublikujemy je w czasopiśmie naukowym.

Etyka

Nasz proces jest również zgodny ze standardowymi praktykami uniwersyteckimi dotyczącymi etyki badań. Projekt został sprawdzony i zatwierdzony przez wszystkie nasze rady ds. Etyki: MIT COUHES i REB McGill University, w koordynacji z komisją etyki na Uniwersytecie w Bath.

Projektując to badanie, rozważaliśmy poproszenie każdej osoby o zgodę z wyprzedzeniem lub, alternatywnie, powiadomienie osób po zakończeniu badania, że ​​mogły one być zaangażowane. W tych badaniach poproszenie ludzi o zgodę może prowadzić do stronniczych ustaleń. Powiadomienie po badaniu za pośrednictwem Twittera było również niepraktyczne, ponieważ Twitter nie byłby w stanie dotrzeć do osób, które opuściły platformę, a nasz zespół badawczy nie byłby w stanie dotrzeć do nikogo, ponieważ nie będziemy mieli żadnych nazw kont ani danych kontaktowych . W takich warunkach amerykańskie zasady etyki badań wymagają eksperymentów spełniających standardy minimalnego ryzyka. Uważamy, że testowane przez nas wiadomości spełniają ten standard, a komitety etyczne MIT i McGill zatwierdziły to badanie. Ponieważ kwestia zgody jest tak ważna, niektórzy z naszego zespołu opracowują nowe sposoby koordynacji zgody i rozliczalności badań na dużą skalę. Jeśli masz pytania dotyczące etyki tych badań, skontaktuj się z J. Nathanem Matiasem na adres jnmatias@mit.edu.

Podziękowanie

Jesteśmy głęboko wdzięczni niektórym znakomitym kolegom, którzy pomogli w tym projekcie. Lindsay Blackwell napisała ankietę odpowiednich badań w dziedzinie nauk społecznych, która kierowała naszym myśleniem podczas projektowania eksperymentu. Marc Brackett zapewnił również wczesne wskazówki. Andrew Sellars z BU / MIT Technology & Cyberlaw Clinic pomógł w przygotowaniu i negocjowaniu umów o współpracy. Jesteśmy również wdzięczni wielu osobom na Twitterze, które pracowały nad tym, aby ten projekt był możliwy.

O naukowcach

Ten projekt jest prowadzony przez Susan Benesch i J. Nathan Matias. Dziennikarze z pytaniami dotyczącymi projektu powinni skontaktować się z nami pod adresem (susan@dangerousspeech.org i jnmatias@mit.edu).

Susan Benesch (@susanbenesch) jest pracownikiem naukowym Berkman Klein Center for Internet & Society na Harvard University. Założyła i kieruje Dangerous Speech Project, który bada mowę, która może inspirować przemoc - i sposoby zapobiegania takiej krzywdzie, bez naruszania wolności wypowiedzi. Obejmuje to szeroko zakrojone prace nad komunikacją online, a projekt Dangerous Speech jest częścią rady zaufania Trust and Safety na Twitterze.

J. Nathan Matias (@natematias) jest doktorem habilitowanym na wydziałach psychologii, Centrum Polityki Informatycznej i Socjologii Uniwersytetu Princeton. Jest wizytującym naukowcem w MIT Media Lab Center for Civic Media i założyciel CivilServant, który organizuje naukę behawioralną obywateli w celu zapewnienia bardziej sprawiedliwego, bezpieczniejszego i bardziej zrozumiałego Internetu. CivilServant współpracuje bezpośrednio ze społecznościami dziesiątek milionów ludzi, aby odkryć skuteczne pomysły na poprawę życia online i ocenić wpływ technologii społecznościowych.

Derek Ruths jest profesorem nadzwyczajnym w School of Computer Science na McGill University, gdzie prowadzi Network Dynamics Lab. W swoich badaniach Derek bada sposoby wykorzystania danych do pomiaru i przewidywania ludzkich zachowań na dużą skalę.

Adam Joinson (@joinson) jest profesorem systemów informatycznych na Uniwersytecie w Bath, gdzie prowadzi badania nad skrzyżowaniem technologii z zachowaniem - w tym nad wzorcami komunikacji, wpływem, bezpieczeństwem i prywatnością oraz nad tym, jak projektowanie może wpływać na zachowanie.