Tiesos iškraipymas AI: nuo šališkumo iki sintetinio sutarimo ir kelio į priekį


AI auganti AI problema: kai algoritmai perrašo tikrovę

Sunkiau ignoruoti keistus, kartais nerimą keliančius dalykus, kurie sako. Paimkime, pavyzdžiui, „Grok“ – X AI ne kartą iškėlė „baltąjį genocidą“ Pietų Afrikoje, sąmokslo teoriją, neturinčią faktinio pagrindo. Tuo tarpu „ChatGpt“ dažnai jaučiasi, kad tai tiesiog pasakoja žmonėms, ką jie nori išgirsti. Tai nėra maži trūkumai. Jie yra didesnio klausimo požymiai: PG jau nebeatspindi žmogaus žinių. Tai tai keičia, dažnai tokiu būdu, kuris jaučiasi manipuliuojantis ar tiesiog neteisingas.

Problema nėra tik šališkumas įprasta prasme. Šie modeliai yra suderinami, kad būtų išvengta ginčų, kad vartotojai būtų įsitraukę arba kai kuriais atvejais, kad būtų galima sustiprinti pakraščių idėjas. Rezultatas? Nelaimėta realybės versija, kai tiesa priklauso nuo to, kas gauna daugiausiai paspaudimų ar mažiausiai atsilikimo.

Iš kur gaunami duomenys?

Daug kas prasideda nuo to, kaip mokomos AI sistemos. Dauguma nuskandina internetą, patraukdami duomenis daug negalvodami apie kontekstą, tikslumą ar net sutikimą. Nenuostabu, kad modeliai pakartoja tuos pačius šališkumus, melagingumus ir kraštutinumus, rastus internete. Ir tai nėra tik techninis klausimas – tai teisinis ir etiškas minų laukas. Rašytojai, menininkai ir žurnalistai pateikė ieškinį AI kompanijoms dėl savo darbo naudojimo be leidimo. Jei pagrindas yra ydingas, ką tai reiškia viskam, pastatytam ant jo?

Kai kurie teigia, kad sprendimas yra „įvairesni duomenys“, tačiau tai yra tik dalis atsakymo. Mums reikia sistemų, kurios seka, iš kur kyla informacija, patikrinkite jos tikslumą ir, be abejo, leiskite žmonėms pasirinkti, ar jų duomenys yra įtraukiami. Čia gali padėti decentralizuoti metodai, suteikiantys vartotojams iš tikrųjų kontroliuoti, kaip jų indėlis formuoja AI.

Įsitikinęs, bet neteisingas

Statymai yra didesni nei bet kada, nes AI nebėra kažkoks nišinis įrankis. Tai yra paieškos sistemose, pranešimų siuntimo programose ir net mūsų telefonuose. Kai „Google“ AI apžvalgos siūlo gerti baliklius ar valgyti uolas, tai nėra tik juokinga klaida – tai įspėjimas. Šie modeliai yra sukurti taip, kad skambėtų įtikinamai, o ne teisingi. Ir kai milijonai jų pasikliauja, pasekmės greitai tampa greitai.

Tai taisyti nebus lengva. Saugos filtrų ir pataisų nepakanka. Reikia pokyčių, kaip šios sistemos yra kuriamos – daugiau skaidrumo, daugiau žmonių, dalyvaujančių jas testuojant ir tobulinant. Tokie projektai kaip „LaIon“ ir „Hugning Face“ jau eksperimentuoja su atviromis grįžtamojo ryšio kilpomis, leisdami vartotojams pažymėti klaidas ir šališkumą. Tai pradžia, tačiau išlieka didesnis klausimas: ar technologijų kompanijos nori prioritetą teikti tiesai, o ne įsitraukimui?

PG neišnyksta. Dabar iššūkis yra įsitikinti, kad jis tarnauja tikrovei, o ne atvirkščiai.



Source link

Draugai: - Marketingo agentūra - Teisinės konsultacijos - Skaidrių skenavimas - Klaipedos miesto naujienos - Miesto naujienos - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Teniso treniruotės - Pranešimai spaudai - Kauno naujienos - Regionų naujienos - Palangos naujienos