Câteva abordări ticăldice, provizorii, despre viitorul politicii AI: Până în prezent, majoritatea oamenilor din domeniu s-au concentrat pe modele - adică pe partea de cercetare și dezvoltare. Ei presupun implicit că lucrul periculos/transformator este modelul de bază în sine, mai degrabă decât modul în care este configurat, constrâns și integrat în sistemele reale; Astfel, modelul devine "obiectul" relevant de reglementare sau supraveghere. Acest lucru poate fi adevărat sau nu și mă bucur că există o mulțime de gânduri în această direcție. Dar, în egală măsură, este plauzibil ca ceea ce ajunge să conteze la fel de mult este sistemul care folosește modelul prin schele, instrumente, subagenți și multe altele - ceea ce oamenii numesc de obicei o parte de "implementare" a lucrurilor. Aceste sisteme/servicii vor arăta foarte diferit în funcție de utilizatori, piețe și sectoare relevante. Acest lucru ar putea însemna câteva lucruri diferite: În primul rând, cred că implementările contează mult mai mult decât se presupune de obicei. Acest lucru a fost oarecum internalizat în dezbaterile despre prejudecăți, unde a devenit evident că nu poți obține un model care să abordeze simultan toate prejudecățile la care te-ai putea gândi, iar în schimb cel mai bun punct de intervenție este implementarea având în vedere legile și contextele locale. Viziunea centrată pe model încurajează uneori un stil de raționament care este divorțat de contextul instituțional și specific domeniului în care riscurile se materializează de fapt. În al doilea rând, pentru a învinge China sau pentru a vindeca bolile sau pentru a obține niveluri ridicate de creștere, este inutil să ai un model super puternic care stă acolo în subsol. De fapt, ai nevoie de tehnologie implementată pe toată linia. Și bănuiesc că acest lucru va fi destul de greu, din aceleași motive pentru care multe economii occidentale se luptă să construiască ceva (locuințe, energie, infrastructură, tehnologie medicală, finanțare de consum etc.). "Partea de implementare" este paralizată de numeroasele legi moștenite non-AI pe care le avem și care vor încetini adoptarea utilă. Gândiți-vă la modul în care Londra încă are șoferi de metrou, în ciuda faptului că "capacitatea" este automatizabilă. Dacă doriți ca AGI să ajute societățile să prospere, atunci va trebui să abordați multe probleme de politică care nu au legătură cu AI. În al treilea rând, dacă implementările contează cel mai mult, atunci obsesia recentă pentru modelele AI "suverane" este probabil greșită. Puterea economică vine din implementarea eficientă a inteligenței artificiale în întreaga economie, nu din deținerea unui model de bază. Acest lucru necesită atât remedierea barierelor de implementare (ca mai sus), cât și utilizarea pragmatică a celor mai bune modele disponibile, indiferent de origine. În sens mai larg, aceeași logică se aplică dincolo de modelele în sine. Încercarea de a desfășura totul la nivel local, fie prin politică industrială, fie prin protecționism, ignoră realitățile economice de bază. Belgia beneficiază mai mult de accesarea a milioane de cărți decât de deținerea de prese de tipar; În mod similar, economiile avansate câștigă mai mult din specializarea inteligentă și comerțul cu aliații decât din încercările costisitoare de autarhie. Chiar dacă AI este o tehnologie anormală, fundamentele modului în care economiile organizează producția complexă nu s-au schimbat. Dacă acest lucru este corect, o mare parte din munca politică viitoare constă în reducerea fricțiunilor de desfășurare, facilitarea comerțului și consolidarea capacităților sectoriale și instituționale: always-has-been-atronaut.gif!