TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#866

LLM-ovi protiv algoritamskog kaosa: tko zapravo gradi novu realnost?

(3w ago)
San Francisco, CA
youtube.com

LLM-ovi protiv algoritamskog kaosa: tko zapravo gradi novu realnost?📷 © Federal Communications Commission

  • Eric Levitz argumentira protiv algoritamskog determinizma
  • Sam Altman ostaje bez konkretnih obveza u priči
  • Dio developer komunity već testira LLM-ove kao fact-checkere

Eric Levitz iz Voxa baca rukavicu tezi da su društveni mediji neizbježna spirala dezinformacija — s argumentom da bi upravo velika jezična modela (LLM-ovi) mogli biti korisni idioti u borbi protiv fragmentacije javne rasprave. Ne zato što su pametniji od prosječnog korisnika Twittera (što, uostalom, nije teško), već zato što njihova arhitektura potencijalno omogućava centralizirano filtriranje činjenica.

To je, naravno, isti taj „potencijal“ koji je prije pet godina trebao spasiti blockchain od fake newsa. Problem je što Levitzova teza stoji na pretpostavci da će korporacije poput OpenAI-a ili Meta htjeti implementirati takve mehanizme — a ne samo koristiti LLM-ove za finije ciljanje oglasa. Istraživanje iz 2023. pokazalo je da čak i „neutralni“ LLM-ovi reproduciraju pristranosti obučavajućih podataka, što znači da bi „shared reality“ lako mogla postati shared bias.

Još zanimljivije je što se u cijeloj priči Sam Altman spominje samo kao deus ex machina — bez konkretnih obveza, roadmapa ili čak demo verzija takvog alata. To je klasičan primjer kako se AI diskurs pretvara u vjersko pitanje: vjerujemo li da će tehnologija sama po sebi riješiti probleme koje je sama stvorila?

Demo nasuprot deploymenta: zašto bi AI trebao biti bolji od Facebookovih preporuka📷 © Tech&Space

Demo nasuprot deploymenta: zašto bi AI trebao biti bolji od Facebookovih preporuka

Realnost je, naravno, puno dosadnija. Developer komunity već eksperimentira s LLM-ovima kao alatima za fact-checking — ali u GitHub repozitorijima prevladava skepsa prema skalabilnosti.

Najveći problem nije točnost modela (koja se, čini se, polako poboljšava), već incentivi platformi: zašto bi Facebook ili TikTok uvodili alate koji bi smanjili angažman? Čak i ako LLM-ovi postanu savršeni u detektiranju dezinformacija, njihova primjena ovisit će o poslovnim odlukama, a ne o tehnološkim mogućnostima.

Zanimljivo je kako se ovdje ponavlja isti obrazac kao s Content Moderation APIjevima prethodne dekade: tehnički rješenje postoji, ali ga nitko ne implementira jer nema profitni model. Analiza iz Stanforda upozorava da bi čak i najnapredniji LLM-ovi mogli postati weaponized u rukama zlonamjernih aktera — generirajući uvjerljive deepfake tekstove brže nego što ih moderatori mogu obrisati. Drugim riječima, tehnologija koja bi trebala biti lijek postaje još jedan simptom.

Pravi signal ovdje nije u samoj ideji, već u tome tko je spreman platiti za njezinu implementaciju. A s obzirom na to da su najveći beneficijari trenutnog stanja upravo platforme koje zarđuju na polarizaciji, čini se da će LLM-ovi — barem u ovoj iteraciji — ostati još jedan nice-to-have feature u PR prezentacijama, a ne stvarno rješenje.

U konačnici, pitanje nije hoće li LLM-ovi biti korisni u borbi protiv dezinformacija, već hoće li ih korporacije i vlade koristiti na način koji će zaštititi javni interes. Ako ćemo nastaviti stavljati profit iznad ljudskog blagostanja, riskiramo da tehnologija postane još jedan alat za kontrolu i manipulaciju. Moramo biti svjesni tih rizika i aktivno raditi na stvaranju društva koje cijeni istinu i demokratske vrijednosti.

LLMAlgorithmic ChaosAI Deployment

//Comments