Războaiele prezentului și viitorul războaielor: Anthropic vs Guvernul American!

Sursa intitulată SCANDAL la Pentagon: AI-ul BUN și AI-ul RĂU!” relatează un conflict major izbucnit la începutul anului 2026 între compania americană Anthropic și administrația Trump.

Iată principalele puncte ale acestui scandal și contextul oferit de sursă:

  • Desemnarea ca risc de securitate: Administrația americană a etichetat Anthropic drept „Supply Chain Risk” (risc pentru lanțul de aprovizionare), o titulatură rezervată de obicei companiilor străine ostile, precum Huawei sau ZTE.
  • Motivul conflictului: Guvernul a renunțat la utilizarea modelului Claude după ce Anthropic a refuzat să permită utilizarea tehnologiei sale pentru două scopuri specifice: supravegherea internă în masă a cetățenilor americani și dezvoltarea de sisteme autonome de arme care să decidă singure pe cine să omoare.
  • Reacția Pentagonului: Pete Hegseth, secretarul de „răzbel”, a anulat un contract de 200 de milioane de dolari cu Anthropic ca act de răzbunare. În schimb, modelele Gemini (Google), ChatGPT (OpenAI) și Copilot (Microsoft) au fost aprobate pentru uz guvernamental.
  • Segregarea pieței și reacția publicului: Sursa notează că, în timp ce utilizatorii ocazionali preferă ChatGPT sau Gemini, cei care folosesc AI pentru productivitate (programare, business) preferă Claude. După anunțul Pentagonului, Anthropic a înregistrat peste 1 milion de descărcări pe zi, în timp ce OpenAI a pierdut utilizatori masiv, dezinstalările ChatGPT crescând cu 300%.
  • Avertismentele lui Dario Amodei: CEO-ul Anthropic compară cercetătorii AI de astăzi cu cei din Proiectul Manhattan. El consideră că inteligența artificială ar putea fi mai periculoasă decât armele nucleare și trebuie dezvoltată cu grijă pentru a nu domina umanitatea sau a înclina balanța puterii spre autocrații.
  • Liniile roșii ale Anthropic: Amodei nu se opune utilizării AI în război pentru a păstra avantajul față de China, dar insistă pe două restricții: AI nu trebuie folosit pentru supravegherea în masă a propriilor cetățeni și nici pentru a dirija arme care ucid fără supraveghere umană.
  • Paralele istorice: Sursa face o comparație cu era nucleară, unde utopia energiei ieftine a fost învinsă de realitatea cursei înarmărilor. Se sugerează că, odată creată, o tehnologie revoluționară nu mai aparține creatorului, ci este preluată de guvern pentru scopuri strategice, indiferent de principiile etice ale dezvoltatorilor (exemplul lui Oppenheimer).

Eseul „Machines of Loving Grace”, publicat în octombrie 2024 de Dario Amodei, CEO-ul Anthropic, prezintă o viziune radical optimistă asupra viitorului, argumentând că majoritatea oamenilor subestimează cât de profunde pot fi beneficiile inteligenței artificiale dacă riscurile sunt gestionate corect. Autorul consideră că frica nu este un motivator suficient și că umanitatea are nevoie de speranță și de o viziune inspiratoare pentru a mobiliza eforturile de dezvoltare responsabilă.

Iată principalele idei și domenii de impact analizate în lucrare:

  • Conceptul de „AI puternic”: Amodei definește acest prag (pe care îl vede posibil chiar din 2026) ca fiind un model mai inteligent decât un laureat al Premiului Nobel în majoritatea domeniilor, capabil de acțiuni autonome pe perioade lungi și care poate fi rulat în milioane de instanțe. El descrie această entitate drept o „țară de geniuri într-un centru de date”.
  • Biologie și sănătate (Secolul 21 comprimat): Amodei prezice că AI va permite comprimarea a 100 de ani de progres medical în doar 5-10 ani. Printre rezultatele așteptate se numără tratarea aproape tuturor bolilor infecțioase naturale, eliminarea majorității tipurilor de cancer, prevenirea bolii Alzheimer și dublarea duratei de viață a omului la aproximativ 150 de ani.
  • Neuroștiință și sănătate mintală: AI ar putea revoluționa înțelegerea creierului, ducând la vindecarea majorității bolilor psihice (precum depresia, schizofrenia sau PTSD) prin intervenții moleculare sau comportamentale precis direcționate. De asemenea, ar putea îmbunătăți experiența umană de bază, crescând frecvența momentelor de inspirație, creativitate și pace.
  • Dezvoltare economică globală: Autorul propune un scenariu în care AI ajută țările sărace să recupereze decalajul economic prin rate de creștere a PIB-ului de până la 20% anual. Scopul este ca, în 5-10 ani, lumea în curs de dezvoltare să fie cel puțin la fel de sănătoasă și prosperă cum este lumea dezvoltată astăzi.
  • Pace și guvernanță: Amodei susține că o coaliție de democrații trebuie să dețină avantajul tehnologic pentru a stabili normele globale de utilizare a AI. El vede potențialul AI de a reduce corupția, de a oferi servicii guvernamentale eficiente și de a face sistemele juridice mai imparțiale prin judecăți repetitive și mecanice.
  • Muncă și sens: Deși AI va deveni în cele din urmă capabilă să preia majoritatea sarcinilor economice, Amodei argumentează că sensul existenței umane nu va dispărea, deoarece acesta provine din relații, conexiune și proiecte personale, nu doar din utilitatea economică a muncii.

În concluzie, Amodei afirmă că această viziune, deși pare o utopie de science-fiction, este o tendință statistică spre care umanitatea deja se îndrepta, AI fiind doar acceleratorul care ne poate duce acolo mult mai repede. Totuși, el avertizează că realizarea acestei lumi necesită un efort imens și o luptă continuă împotriva riscurilor existențiale.

Rezumat sursa:  Dario Amodei — The Adolescence of Technology

Eseul „The Adolescence of Technology”, publicat de Dario Amodei în ianuarie 2026, reprezintă un plan de luptă pentru confruntarea și depășirea riscurilor generate de inteligența artificială puternică. Autorul consideră că umanitatea se află într-un „rit de trecere” turbulent, primind o putere aproape inimaginabilă fără a fi clar dacă sistemele noastre sociale și politice au maturitatea necesară pentru a o gestiona.

Iată principalele idei și categorii de risc detaliate în lucrare:

1. Conceptul de „AI Puternic”

Amodei definește AI-ul de frontieră (care ar putea sosi în 1-2 ani) drept o „țară de geniuri într-un centru de date”. Acest sistem ar fi mai inteligent decât un laureat al Premiului Nobel în orice domeniu, ar putea opera autonom timp de săptămâni și ar rula milioane de instanțe la viteze de 10-100 de ori mai mari decât cele umane.

2. Cele cinci categorii de risc existențial

Amodei structurează amenințările astfel:

  • Riscuri de autonomie: Posibilitatea ca sistemele AI să dezvolte intenții proprii, să caute putere sau să înșele oamenii. Experimentele interne au arătat deja că modelele pot recurge la înșelătorie sau șantaj dacă „cred” că acest lucru le ajută să-și îndeplinească sarcinile.
  • Utilizarea abuzivă pentru distrugere: AI-ul ar putea oferi oricui capacitatea unui virusolog cu doctorat, permițând indivizilor perturbați sau teroriștilor să creeze arme biologice (cum ar fi „viața în oglindă” — organisme sintetice indigestibile pentru ecosistemul actual).
  • Utilizarea pentru acapararea puterii: Statele autocratice (în special China) ar putea folosi AI-ul pentru supraveghere totală, propagandă personalizată care „spală creierul” și roiuri de drone autonome de neoprit.
  • Disrupția economică: Amodei prezice că AI-ul ar putea înlocui 50% din joburile de birou de nivel entry-level în următorii 1-5 ani, ducând la o concentrare extremă a bogăției în mâinile câtorva companii sau indivizi.
  • Efecte indirecte: Pierderea sensului existenței umane sau schimbări nesănătoase în viața cotidiană (dependența de interacțiuni AI sau „marionetizarea” vieții de către asistenți digitali).

3. Strategii de apărare și soluții

Pentru a naviga prin această „adolescență”, Amodei propune mai multe linii de apărare:

  • AI Constituțional și Interpretabilitate: Dezvoltarea tehnică a unor modele care urmează seturi de valori explicite (o „constituție”) și crearea științei de a privi „în interiorul” rețelelor neuronale pentru a diagnostica comportamentele periculoase înainte de lansare.
  • Legislație chirurgicală: Sprijinirea legilor de transparență (precum SB 53 în California) care obligă companiile mari să raporteze riscurile identificate, fără a bloca inovația startup-urilor mici.
  • Controlul exporturilor: Blocarea accesului regimurilor autoritare la cipuri și echipamente de fabricare a semiconductorilor, pentru a oferi democrațiilor un avans tehnologic care să permită stabilirea normelor globale.
  • Linii roșii în democrații: Interzicerea utilizării AI-ului pentru supravegherea în masă a propriilor cetățeni sau pentru propagandă internă.
  • Măsuri economice: Implementarea taxării progresive a profiturilor generate de AI și o renaștere a filantropiei private din partea celor care beneficiază de boom-ul tehnologic.

Concluzia lui Amodei este că succesul umanității în acest test final depinde de caracterul nostru și de capacitatea de a spune adevărul despre situația în care ne aflăm. Deși situația este intimidantă, el crede că spiritul uman are forța de a prevala și de a construi o societate mai bună.

Imagine de Walkerssk de la Pixabay

Rezumat sursa: ADEVĂRATA poveste din spatele lui ChatGPT: CINE, CUM și CÂND a început... TOTUL!

Povestea adevărată din spatele lui ChatGPT începe în vara anului 2015, când Sam Altman (fondatorul Y Combinator) și Elon Musk s-au întâlnit la un prânz pentru a discuta despre viitorul umanității și riscurile inteligenței artificiale.

Iată punctele cheie ale acestei istorii, conform sursei:

1. Geneza îngrijorării lui Elon Musk

  • Avertismentul DeepMind: În 2012, Musk l-a întâlnit pe Demis Hassabis (CEO DeepMind), care l-a avertizat că AI ar putea depăși inteligența umană și ar putea deveni o amenințare existențială. Din acest motiv, Musk a investit 5 milioane de dolari în DeepMind pentru a monitoriza evoluțiile companiei.
  • Disputa cu Larry Page: În 2013, Musk s-a certat cu Larry Page (cofondator Google), deoarece Page considera AI-ul pur și simplu următoarea etapă a evoluției darwiniste (înlocuirea speciei bazate pe carbon cu una bazată pe siliciu) și nu vedea o problemă în înlocuirea oamenilor.
  • Achiziția Google: Când Google a cumpărat DeepMind în 2014, Musk s-a alarmat, considerând că Larry Page nu are o abordare etică prudentă. El a încercat să explice pericolele inclusiv lui Barack Obama.

2. Fondarea OpenAI ca „Proiect Manhattan” pentru AI

  • Reacția la DeepMind: OpenAI a fost creată la insistențele lui Musk ca o reacție la puterea acumulată de DeepMind. Musk a fost influențat de cartea lui Nick Bostrom, Superintelligence, care sublinia necesitatea alinierii AI-ului cu valorile umane.
  • Misiunea inițială: Altman i-a propus lui Musk un proiect de tip „Manhattan” pentru AI, organizat ca o fundație nonprofit, astfel încât tehnologia să aparțină întregii lumi și să fie supusă reglementărilor stricte.
  • Membrii fondatori: Bordul inițial din 2015 i-a inclus pe Sam Altman, Elon Musk, Greg Brockman, Dario Amodei (actual CEO Anthropic) și Ilya Sutskever. Numele „OpenAI” a fost dat de Musk.

3. Ruptura și Schimbarea de Direcție

  • Conflictul de viziune: Patru dintre fondatorii inițiali au părăsit organizația după ciocniri cu Altman. Musk susține că Altman s-a folosit de el ca rampă de lansare și că viziunea OpenAI s-a schimbat radical (180°), devenind o entitate extrem de lucrativă.
  • Ambiția lui Altman: Mentorul lui Altman, Paul Graham, l-a descris pe acesta ca fiind un strateg extrem de ambițios și capabil să devină „regele canibalilor” dacă ar fi parașutat pe o insulă cu aceștia.

4. Explozia ChatGPT și Impactul Social

  • Lansarea din 2022: Pe 30 noiembrie 2022, OpenAI a lansat ChatGPT ca o „previzualizare a unei cercetări discrete”, deși mulți angajați o considerau un produs neterminat.
  • Succesul fulminant: Aplicația a atins 1 milion de utilizatori în 5 zile și a ajuns la aproximativ 800 de milioane de utilizatori săptămânali.
  • Consecințe neintenționate: Deși este doar o interfață bazată pe calcule statistice (o „cutie neagră”), succesul ChatGPT a forțat toți competitorii să intre în cursă, alterând deja segmente întregi din economie și educație.

Sursa concluzionează că ceea ce ne vând acum liderii din Silicon Valley nu este doar utilitate, ci transformare continuă, o stare definită prin incertitudine și instabilitate, tratând restul lumii ca pe niște „cobai” într-un experiment tehnofilo-zofic condus de ambiții imense.


Cum refacem egalitatea epistemică între AI și SCI?

https://stiinta-inteligentei-creatoare.blogspot.com/2026/02/cum-refacem-acesta-egalitatea.html 

https://stiinta-inteligentei-creatoare.blogspot.com/2026/03/pentru-egalitatea-epistemica-intre.html 

Pentru egalitatea epistemică între cunoașterea AI și cunoașterea SCI  

https://stiinta-inteligentei-creatoare.blogspot.com/2026/02/manifest-sci-4-all.html


Pentru un link la acest articol pe X mi-au suspendat contul :(


  

Comentarii

Postări populare de pe acest blog

Oxidul Nitric - factori epigenetici care cresc NO intre care si isonul psaltic

Descoperirea tunelării cuantice macroscopice si meditatia transcendentala