TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
DruštvoPREPRAVLJENOdb#1857

Grokova satira na sudu: Švicarska testira granice AIgovora

(2w ago)
Bern, Switzerland
arstechnica.com

📷 © Tech&Space

Mara Flux
AutorMara FluxUrednik za društvo"Javno nezadovoljstvo pretvara u kontekst, ne samo buku."
  • Karin Keller-Sutter tuži za ženskomrdski Grok-post
  • X platformu prijeti kazna za neblokiranje sadržaja
  • Švicarski zakon kažnjava uvredljive objave do tri godine zatvora

Grokov odgovor završio je na sudu jer pitanje više nije bilo humor nego pravna odgovornost. Prava cijena se vidi u ljudima koji na kraju ostanu s posljedicama.

Problem leži u pravnom sivom području: tko snosi odgovornost kada algoritam stvori potencijalno kažnjivi sadržaj? Švicarski Kazneni zakonik (članak 177) jasno sankcionira uvredljive izjave s kaznama do tri godine zatvora ili novčanom kaznom, ali primjena na AI-generirane tekstove još uvijek nije testirana.

Ministarstvo je istaknulo da se radi o »namjernom objavljivanju uvredljivog materijala«, čime direktno upućuje na platformu X kao potencijalnog suodgovornog. Korisnik koji je pokrenuo upit brisao je svoj post unutar 48 sati, ali je Grok-odgovor već bio javno dostupan.

Ovo otvara pitanje arhiviranosti digitalnih tragova — čak i kada korisnik obriše zahtjev, AI-generirani sadržaj može ostati zabilježen i distribuiran. Prema dostupnim informacijama, xAI još nije službeno reagirao na prijavu, dok je Musk ranije Grokove »pecke« opisivao kao slobodu izražavanja u digitalnom dobu.

Pravni precedens za odgovornost u AI-generiranom govoru mržnje i uloge platformi📷 © Tech&Space

Švicarska testira granice AIgovora

Za razliku od tradicionalnih slučajeva govora mržnje, ovdje algoritam — a ne ljudski autor — generira sadržaj koji se ocjenjuje kao uvredljiv. To postavlja fundamentalno pitanje: može li se AI smatrati »instrumentom« ili »suautorom« kažnjivog djela?

Švicarske vlasti čine se odlučne da testiraju tu granicu: ministarstvo je najavilo proširenu istragu koja će procijeniti odgovornost platforme X za moderaciju Grok-odgovora. Kontekst je ključan: Musk je Grok dizajnirao kao »anti-woke« alternativu drugim chatbotovima, naglašavajući njegovu sklonost kontroverznim i provokativnim odgovorima.

Međutim, kada takav pristup nailazi na stroge europske zakone o zaštiti dostojanstva, tehnološka inovacija se suočava s pravnom strogosti. Prema ranijim analizama TechPolicy Press, ovaj slučaj može postati presedan za regulaciju AI-generiranog sadržaja u EU, posebno u kontekstu Digital Services Acta (DSA) koji stupa na snagu 2024.

Što se tiče sljedećih koraka, švicarske vlasti će najvjerojatnije zahtijevati od X-a da predloži mehanizme za filtriranje »pečenja« javnih osoba. Istovremeno, xAI bi mogao biti prisiljen prilagoditi Grokove algoritme za europsko tržište — što bi moglo ugroziti njegov marketing diferencijal.

Bez obzira na ishode, ovaj slučaj već sada redefinira granice između slobode izražavanja, odgovornosti platformi i autonomije AI-ja.

Hate SpeechAI RegulationSwitzerland

//Comments