Reddit będzie teraz używać modelu sztucznej inteligencji do zwalczania nękania (porzucenie APK)

Edgar Cervantes / Autorytet Androida

TL;DR

Advertisement

  • Porzucenie Android Authority ujawniło, że Reddit będzie używać modelu sztucznej inteligencji do wykrywania nękania.
  • Modelka jest szkolona na treściach, które wcześniej zostały oznaczone jako naruszające warunki Reddita.

Mniej więcej w ciągu ostatniego roku zaobserwowaliśmy, że duże modele językowe (LLM) były wykorzystywane do różnych funkcji, od generowania tekstu/obrazów po wirtualnych asystentów i nie tylko. Teraz wygląda na to, że dzięki Redditowi możemy dodać do listy jeszcze jeden przypadek użycia.

Porzucenie pakietu APK pomaga przewidzieć funkcje, które mogą pojawić się w usłudze w przyszłości, na podstawie kodu w toku. Możliwe jest jednak, że takie przewidywane funkcje nie zostaną udostępnione publicznie.

Porzucenie wersji 2024.10.0 aplikacji Reddit na Androida ujawniło, że Reddit używa teraz LLM do wykrywania nękania na platformie. Poniżej możesz zobaczyć odpowiednie ciągi.

Kod

Advertisement

<string name="hcf_answer_how_model_trained">The harassment model is an large language model (LLM) that is trained on content that our enforcement teams have found to be violating. Moderator actions are also an input in how the model is trained.</string>
<string name="hcf_faq_how_model_trained">How is the harassment model trained?</string>

Reddit również zaktualizował swoje Strona wsparcia tydzień temu wspomniałem o wykorzystaniu modelu sztucznej inteligencji w ramach filtra nękania.

„Filtr działa w oparciu o model dużego języka (LLM), który jest przeszkolony w zakresie działań moderatorów i treści usuniętych przez wewnętrzne narzędzia Reddita i zespoły egzekwowania prawa” – czytamy na stronie.

Tak czy inaczej, wygląda na to, że moderatorzy mają w swoim arsenale kolejne narzędzie do zwalczania niepożądanych treści na Reddicie. Czy to jednak naprawdę dobrze poradzi sobie z oznaczaniem treści? Będziemy musieli po prostu poczekać i zobaczyć.

Advertisement