Singularitatea blanda, Altman, sau mai periculoasă decât bomba atomică, Elon Musk?

Eseul The Gentle Singularity, scris de Sam Altman (CEO OpenAI), prezintă o viziune în care singularitatea tehnologică nu este un eveniment brusc și catastrofal, ci un proces gradual, care devine rapid parte din viața cotidiană.

Rezumat cu NotebookLM

Iată principalele idei ale lui Altman despre singularitate și modul în care aceasta va transforma lumea:

1. Natura „blândă” a Singularității

  • Orizontul evenimentelor: Altman afirmă că omenirea a trecut deja de „orizontul evenimentelor”; procesul de decolare către superinteligență a început deja, dar se simte mult mai puțin ciudat decât s-ar fi așteptat.
  • Adaptare și rutină: Ideea centrală este că „minunile devin rutină”. Ceea ce astăzi ni se pare uluitor (cum ar fi capacitatea AI de a scrie cod sau de a pune diagnostice medicale), mâine va fi considerat un standard minim.
  • Progres gradual: Din perspectivă relativistă, singularitatea se întâmplă „bit cu bit”, iar fuziunea cu tehnologia are loc lent, făcând ca experiența trăită să fie impresionantă, dar gestionabilă.

2. Abundența de Inteligență și Energie

  • Limitatori istorici: Altman consideră că inteligența și energia au fost principalii limitatori ai progresului uman. În anii 2030, ambele vor deveni „extrem de abundente”, permițând rezolvarea aproape oricărei alte probleme prin guvernare bună.
  • „Too cheap to meter”: El prezice că inteligența va deveni atât de ieftină încât costul ei va converge spre cel al electricității, fiind disponibilă oricui, oriunde.

3. Autoperfecționarea recursivă (Larval Version)

  • AI construiește AI: AI este deja folosită pentru a accelera cercetarea în domeniul inteligenței artificiale. Altman sugerează că, dacă AI poate face într-o lună cercetarea care oamenilor le-ar lua un deceniu, rata progresului se va schimba fundamental, marcând o formă incipientă de auto-îmbunătățire recursivă.

4. Cronologia transformării

Altman oferă repere clare pentru următorii ani:

  • 2025: Sosirea agenților capabili de muncă cognitivă reală.
  • 2026: Apariția sistemelor care pot genera perspective și idei noi (novel insights).
  • 2027: Roboți capabili să execute sarcini complexe în lumea fizică.
  • După 2030: O decadă care va fi „sălbatic de diferită” de tot ce a existat anterior.

5. Impactul asupra muncii și sensului uman

  • Evoluția profesiilor: Deși clase întregi de joburi vor dispărea, Altman este convins că oamenii se vor adapta rapid, găsind noi lucruri de făcut și de dorit, așa cum s-a întâmplat după Revoluția Industrială.
  • Avantajul uman: Oamenii au un avantaj pe termen lung: suntem „cablați” să ne pese de alți oameni și de ceea ce gândesc aceștia, în timp ce nu ne pasă foarte mult de mașini. Sensul vieții va proveni în continuare din relații și conexiuni umane, nu din munca economică.

6. Provocări și siguranță

Pentru ca această singularitate să rămână „blândă”, Altman subliniază două necesități critice:

  1. Rezolvarea problemei alinierii (Alignment): Garantarea faptului că sistemele AI învață și acționează conform dorințelor noastre colective pe termen lung.
  2. Accesul distribuit: Este vital ca accesul la superinteligență să fie larg distribuit și să nu fie concentrat în mâinile unei singure persoane, companii sau țări.

În concluzie, Sam Altman vede singularitatea nu ca pe un sfârșit, ci ca pe un accelerator al dorinței umane de a crea lucruri minunate, transformând lumea într-un loc mult mai bogat și mai echitabil prin intermediul unui „creier global” accesibil tuturor.

Citeste si:

https://intrebarea-justa.blogspot.com/2026/04/singularitatea-ai.html  pericolul singularitatii AI 

"Nerecunoasterea fenomenologicului, a neformalului – intim legata de creativitate ca functie a omului in univers – ar putea prezenta un pericol pentru succesul universului nostru in cosmos” Mihai Draganescu Fostul Presedinte al Academiei Romane

https://intrebarea-justa.blogspot.com/2026/04/singularitatea-buna.html  singularitatea buna, echilibrul


AI poate fi „mai periculoasă decât bomba atomică

Mai mulți lideri și gânditori publici au formulat explicit ideea că AI poate fi mai periculoasă decât bomba atomică sau cel puțin comparabilă ca risc existențial.

1. Elon Musk

Elon Musk (Tesla, SpaceX, xAI) este cel mai citat pe această formulare:

  • încă din 2014 a spus că „trebuie să fim foarte atenți cu AI. Are potențialul de a fi mai periculoasă decât armele nucleare” („more dangerous than nukes”).

  • în presa românească afirmația apare reluată: „are potențialul de a fi mult mai periculoasă decât bomba atomică”.

2. Henry Kissinger

Fostul diplomat și strateg Henry Kissinger a avertizat că AI poate fi un pericol mai mare decât bomba atomică sau încălzirea globală, pentru că schimbă însăși natura deciziei și a războiului.

3. Alte figuri care o compară cu riscul nuclear

Nu toți folosesc exact formula „mai periculoasă decât bomba atomică”, dar pun AI în aceeași categorie de risc existențial cu armele nucleare:

  • O declarație semnată de peste 350 de lideri AI (OpenAI, Google DeepMind, Anthropic etc.) afirmă că „abordarea riscului de extincție din cauza AI trebuie să fie o prioritate globală, la fel ca pandemiile și războiul nuclear”.

  • Warren Buffett compară riscurile AI cu cele ale armelor nucleare, spunând că este un „geniu ieșit din lampă” cu potențial de destabilizare globală similar proliferării nucleare.

  • Analiști și lideri politici (inclusiv în contextul NATO / experți în securitate) discută AI ca risc strategic comparabil cu armamentul nuclear și cu controlul asupra lui.

Rezumat

Elon Musk este vocea cea mai directă care spune că AI poate fi „mai periculoasă decât bomba atomică”.
Henry KissingerWarren Buffett și sute de lideri din AI pun, de asemenea, AI în aceeași categorie de risc existențial cu armele nucleare și războiul nuclear.


Citeste si:

https://www.linkedin.com/pulse/de-ce-nu-exist%25C4%2583-pericolul-ai-ci-%25C8%2599tiin%25C8%259Bei-f%25C4%2583r%25C4%2583-con%25C8%2599tiin%25C8%259B%25C4%2583-balan-7ltuf   De ce nu există pericolul AI, ci pericolul științei fără conștiință


https://www.linkedin.com/pulse/official-appeal-recognition-science-creative-cognitive-balan-qrlbf  OFFICIAL APPEAL - For the Recognition of the Science of Creative Intelligence as a Cognitive Public Good and a Fundamental Right in the Age of AI



Comentarii

Postări populare de pe acest blog

Războaiele prezentului și viitorul războaielor: Anthropic vs Guvernul American!

Oxidul Nitric - factori epigenetici care cresc NO intre care si isonul psaltic

Descoperirea tunelării cuantice macroscopice si meditatia transcendentala