Stephen Hawking Crede Că Aceste 3 Lucruri Ar Putea Distruge Umanitatea

{h1}

Fizicul fizician are o lungă listă de lucruri care ar putea distruge civilizația, de la agresiunea umană la inteligența artificială.

Stephen Hawking poate fi cel mai renumit pentru munca sa asupra găurilor negre și a singularităților gravitaționale, dar fizicianul de renume mondial a devenit cunoscut și pentru ideile sale nepăsate despre lucruri care ar putea distruge civilizația umană.

Hawking suferă de o boală cu neuron motor similar cu scleroza laterală amiotrofică sau ALS, care l-a lăsat paralizat și incapabil să vorbească fără un sintetizator vocal. Dar asta nu a împiedicat profesorul de la Universitatea din Cambridge să proclame despre gama largă de pericole cu care se confruntă umanitatea - inclusiv noi înșine.

Iată câteva lucruri pe care Hawking a spus că ar putea duce la dispariția civilizației umane. [Sfârșitul lumii? Cele mai importante temeri de Doomsday]

Inteligență artificială

Hawking face parte dintr-un grup mic de oameni de știință, dar în creștere, care și-au exprimat îngrijorarea cu privire la inteligența artificială „puternică” (AI) - inteligență care ar putea să o egaleze sau să o depășească pe cea a unui om.

„Dezvoltarea unei inteligențe artificiale depline ar putea vrăji sfârșitul rasei umane”, a spus Hawking pentru BBC în decembrie 2014. Declarația a fost ca răspuns la o întrebare despre un nou sistem de sintetizare vocală AI pe care Hawking l-a folosit.

Avertismentele lui Hawking răspund celor ale antreprenorului miliardar Elon Musk, CEO al SpaceX și Tesla Motors, care a numit AI „cea mai mare amenințare existențială”. Luna trecută, Hawking, Musk și alte zeci de păsări științifice au semnat o scrisoare deschisă care descrie riscurile, precum și beneficiile AI.

"Din cauza marelui potențial al AI, este important să cercetăm cum să-și culeagă beneficiile evitând totodată potențialele capcane", au scris oamenii de știință în scrisoarea, care a fost publicată online 11 ianuarie de Future of Life Institute, o organizație voluntară care își propune să diminueze amenințările existențiale pentru umanitate.

Dar mulți cercetători ai AI spun că umanitatea nu este aproape niciodată de a putea dezvolta AI puternică.

"Ne aflăm la câteva decenii de orice tehnologie de care trebuie să ne facem griji", a spus reporterii Demis Hassabis, cercetător de inteligență artificială la Google DeepMind, săptămâna aceasta, la o conferință de presă despre un nou program de AI pe care l-a dezvoltat, care se poate învăța să joace jocuri pe calculator. Cu toate acestea, „Este bine să începeți conversația acum”, a adăugat el.

Agresiunea umană

Dacă mașinile noastre nu ne omoară, am putea să ne omorăm pe noi înșine. Hawking consideră acum că agresiunea umană ar putea distruge civilizația.

Fizicianul făcea un tur al Muzeului Științei din Londra lui Adaeze Uyanwah, un profesor de 24 de ani din California, care a câștigat un concurs de la VisitLondon.com. Când Uyanwah a întrebat: „Ce deficiențe umane v-ar plăcea cel mai mult să modificați?” Hawking a răspuns:

"Eșecul uman pe care mi-aș dori să îl corectez cel mai mult este agresivitatea. Poate că a avut un avantaj de supraviețuire în zilele de peșteră, de a obține mai multe alimente, teritorii sau partenere cu care să se reproducă, dar acum amenință să ne distrugă pe toți", a raportat Independent.

De exemplu, un război nuclear major ar pune capăt civilizației și ar putea șterge rasa umană, a adăugat Hawking. Atunci când a fost întrebat care este calitatea umană pe care ar dori să o mărească, Hawking a ales empatia, pentru că „ne reunește într-o stare pașnică, iubitoare”.

Hawking consideră că explorarea spațială va fi importantă pentru asigurarea supraviețuirii umanității. "Cred că viitorul pe termen lung al rasei umane trebuie să fie spațiu și că reprezintă o asigurare de viață importantă pentru supraviețuirea noastră viitoare, deoarece ar putea preveni dispariția umanității prin colonizarea altor planete", a informat Cambridge Newsreport.

Viața străină

Dar Hawking făcuse avertismente răutăcioase chiar înainte de aceste recente. În 2010, Hawking spunea că, dacă există viață extraterestră inteligentă, s-ar putea să nu fie atât de prietenoasă față de oameni.

"Dacă străinii ne vor vizita vreodată, cred că rezultatul va fi la fel ca atunci când Christopher Columbus a aterizat pentru prima dată în America, ceea ce nu s-a dovedit foarte bine pentru nativii americani", a spus Hawking în timpul unui episod din "Into the Univers with Stephen Hawking", "un spectacol găzduit de Discovery Channel, a raportat The Times, un ziar din Marea Britanie.

Civilizațiile extraterestre avansate ar putea deveni nomazi, care caută să cucerească și să colonizeze orice planete ar putea ajunge, a spus Hawking. „Dacă da, are sens ca aceștia să exploateze fiecare nouă planetă pentru ca materialul să construiască mai multe nave spațiale, astfel încât să poată merge mai departe. Cine știe care ar fi limitele?”

De la amenințarea AI-ului nefast, la extratereștrii avansați, la oameni ostili, perspectivele lui Hawking pentru umanitate arată destul de sumbre.

Urmează Tanya Lewis pe Stare de nervozitate. Urmează-ne @wordssidekick, Facebook . Articolul original despre știința în direct.





RO.WordsSideKick.com
Toate Drepturile Rezervate!
Reproducerea Oricăror Materiale Permise Prostanovkoy Doar Link-Ul Activ La Site-Ul RO.WordsSideKick.com

© 2005–2019 RO.WordsSideKick.com