Postarea Will Artificial Intelligence Save Humanity—Or End It? a apărut pe BitcoinEthereumNews.com. Pe scurt Un panel online a evidențiat o diviziune profundă între transumaniștiPostarea Will Artificial Intelligence Save Humanity—Or End It? a apărut pe BitcoinEthereumNews.com. Pe scurt Un panel online a evidențiat o diviziune profundă între transumaniști

Va salva inteligența artificială umanitatea—sau o va distruge?

Pe scurt

  • Un panel online a evidențiat o diviziune profundă între transumaniști și tehnologi în privința AGI.
  • Autorul Eliezer Yudkowsky a avertizat că actualele sisteme AI de tip "cutie neagră" fac extincția un rezultat inevitabil.
  • Max More a susținut că întârzierea AGI ar putea costa umanitatea cea mai bună șansă de a învinge îmbătrânirea și de a preveni catastrofa pe termen lung.

O diviziune marcată privind viitorul inteligenței artificiale s-a manifestat săptămâna aceasta când patru tehnologi și transumaniști proeminenți au dezbătut dacă construirea inteligenței artificiale generale, sau AGI, ar salva umanitatea sau ar distruge-o.

Panelul găzduit de organizația nonprofit Humanity+ i-a reunit pe unul dintre cei mai vocali "catastrofiști" AI, Eliezer Yudkowsky, care a solicitat oprirea dezvoltării AI avansate, alături de filozoful și futuristul Max More, neuroștiințatorul computațional Anders Sandberg și Președinta Emerită Humanity+ Natasha Vita‑More.

Discuția lor a relevat dezacorduri fundamentale cu privire la posibilitatea ca AGI să fie aliniat cu supraviețuirea umană sau dacă crearea sa ar face extincția inevitabilă.

Problema "cutiei negre"

Yudkowsky a avertizat că sistemele AI moderne sunt fundamental nesigure deoarece procesele lor interne de luare a deciziilor nu pot fi pe deplin înțelese sau controlate.

"Orice cutie neagră va ajunge probabil să aibă probleme remarcabil de similare cu tehnologia actuală", a avertizat Yudkowsky. El a susținut că umanitatea ar trebui să se îndepărteze "foarte, foarte mult de paradigmele actuale" înainte ca AI avansat să poată fi dezvoltat în siguranță.

Inteligența artificială generală se referă la o formă de AI care poate raționa și învăța pe o gamă largă de sarcini, mai degrabă decât să fie construită pentru o singură sarcină, cum ar fi generarea de text, imagini sau videoclipuri. AGI este adesea asociat cu ideea singularității tehnologice, deoarece atingerea acelui nivel de inteligență ar putea permite mașinilor să se îmbunătățească mai rapid decât pot oamenii să țină pasul.

Yudkowsky a indicat analogia "maximizatorului de agrafe" popularizată de filozoful Nick Bostrom pentru a ilustra riscul. Experimentul mental prezintă un AI ipotetic care convertește toată materia disponibilă în agrafe, avansându-și fixația pe un singur obiectiv în detrimentul omenirii. Adăugarea mai multor obiective, a spus Yudkowsky, nu ar îmbunătăți semnificativ siguranța.

Referindu-se la titlul recentei sale cărți despre AI, "If Anyone Builds It, Everyone Dies", el a spus: "Titlul nostru nu este de parcă ar putea eventual să te ucidă", a spus Yudkowsky. "Titlul nostru este, dacă cineva îl construiește, toată lumea moare."

Dar More a contestat premisa că prudența extremă oferă cel mai sigur rezultat. El a susținut că AGI ar putea oferi umanității cea mai bună șansă de a depăși îmbătrânirea și boala.

"Cel mai important pentru mine este că AGI ne-ar putea ajuta să prevenim extincția fiecărei persoane care trăiește din cauza îmbătrânirii", a declarat More. "Murim cu toții. Ne îndreptăm către o catastrofă, unul câte unul." El a avertizat că reținerea excesivă ar putea împinge guvernele către controale autoritare ca singura modalitate de a opri dezvoltarea AI la nivel mondial.

Sandberg s-a poziționat între cele două tabere, descriindu-se ca "mai optimist", rămânând totuși mai precaut decât optimiștii transumaniști. El a povestit o experiență personală în care aproape a folosit un model de limbaj mare pentru a ajuta la proiectarea unei arme biologice, un episod pe care l-a descris drept "înfiorător".

"Ajungem la un punct în care amplificarea actorilor rău intenționați va provoca și o dezordine uriașă", a spus Sandberg. Totuși, a susținut că siguranța parțială sau "aproximativă" ar putea fi realizabilă. El a respins ideea că siguranța trebuie să fie perfectă pentru a fi semnificativă, sugerând că oamenii ar putea cel puțin converge către valori comune minime, cum ar fi supraviețuirea.

"Deci, dacă soliciți siguranță perfectă, nu o veți obține. Și asta sună foarte rău din acea perspectivă", a spus el. "Pe de altă parte, cred că putem avea de fapt siguranță aproximativă. E destul de bună."

Scepticism față de aliniere

Vita-More a criticat dezbaterea mai largă despre aliniere în sine, susținând că conceptul presupune un nivel de consens care nu există nici măcar printre colaboratorii de lungă durată.

"Noțiunea de aliniere este o schemă Pollyanna", a spus ea. "Nu va fi niciodată aliniat. Adică, chiar și aici, suntem toți oameni buni. Ne cunoaștem de decenii și nu suntem aliniați."

Ea a descris afirmația lui Yudkowsky că AGI ar ucide inevitabil pe toată lumea ca "gândire absolutistă" care nu lasă loc pentru alte rezultate.

"Am o problemă cu afirmația generală că toată lumea moare", a spus ea. "Abordând acest lucru ca futurist și gânditor pragmatic, nu lasă nicio consecință, nicio alternativă, niciun alt scenariu. Este doar o afirmație brută și mă întreb dacă reflectă un fel de gândire absolutistă."

Discuția a inclus o dezbatere cu privire la posibilitatea ca o integrare mai strânsă între oameni și mașini să poată atenua riscul reprezentat de AGI - ceva ce CEO-ul Tesla, Elon Musk, a propus în trecut. Yudkowsky a respins ideea de a fuziona cu AI, comparând-o cu "încercarea de a fuziona cu cuptorul tău cu pâine prăjită".

Sandberg și Vita-More au susținut că, pe măsură ce sistemele AI devin mai capabile, oamenii vor trebui să se integreze sau să fuzioneze mai strâns cu ele pentru a face față mai bine unei lumi post-AGI.

"Toată această discuție este o verificare a realității cu privire la cine suntem ca ființe umane", a spus Vita-More.

Buletin informativ Daily Debrief

Începeți fiecare zi cu cele mai importante știri ale momentului, plus caracteristici originale, un podcast, videoclipuri și multe altele.

Sursă: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează [email protected] pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.