Elm adamları süni intellektin təhlükəsindən qorxurlar

Elm adamları süni intellektin təhlükəsindən qorxurlar
Elm adamları süni intellektin təhlükəsindən qorxurlar

Video: Elm adamları süni intellektin təhlükəsindən qorxurlar

Video: Elm adamları süni intellektin təhlükəsindən qorxurlar
Video: KAĞIZDAN SÜRƏTLİ SAMALYOT NECƏ DÜZƏLDİLİR / DIY 2024, Bilər
Anonim

Gələcəkdə özünü inkişaf etdirən süni intellekt (AI) istəsə insanları kölə edə və ya öldürə bilər. Bunu, azad düşüncəli və yüksək intellektli bir şüurun inkişafından gələn risklərin çox yüksək olduğuna inanan alim "Amnon Eden," əgər indiki mərhələdə süni intellektə nəzarət məsələləri ilə məşğul deyilsinizsə. inkişaf, onda sabah sadəcə gələ bilməz. " İngilis Express nəşrinin yazdığına görə, Amnon Edenə görə, insanlıq bu gün məşhur "The Terminator" film eposunun süjetini həyata keçirmək üçün "geri dönüş nöqtəsindədir".

Qeyd edək ki, Dr Amnon Eden əsas məqsədi AI -nin potensial dağıdıcı təsirlərini təhlil etmək olan bir layihə rəhbəridir. Alim hesab edir ki, süni intellekt yaratmağın nəticələrini düzgün başa düşmədən onun inkişafı fəlakətlə təhdid edə bilər. Hal -hazırda, cəmiyyətimiz, AI -nin potensial təsirinin təhlili ilə bağlı elmi ictimaiyyətdə gedən mübahisə haqqında zəif məlumatlıdır. "Önümüzdəki 2016 -cı ildə, mümkün risklərin təhlili, şirkətlərin və hökumətlərin, siyasətçilərin və qərar qəbul etməkdən məsul olanların düşüncəsində əhəmiyyətli dərəcədə genişlənməli olacaq" deyir Eden.

Alim əmindir ki, insanlığın robotlar tərəfindən məhv edilməsini təsvir edən elmi fantastika, AI yaratmaq prosesi nəzarətdən çıxdığı üçün tezliklə ümumi problemimizə çevrilə bilər. Məsələn, Elon Musk, sahibkar Sam Altmanın dəstəyi ilə, insan zehnini üstələyən açıq mənbə AI inkişaf etdirən, 1 milyard dollarlıq yeni bir qeyri -kommersiya təşkilatı yaratmaq qərarına gəldi. Eyni zamanda, Amerikalı milyarder Elon Musk özü də "varlığımız üçün ən böyük təhdidlər" arasında süni zəkanı sıralayır. Apple-ı quran Steve Wozniak, keçən ilin mart ayında "gələcəyin insanlar üçün qorxulu və çox təhlükəli göründüyünü … nəticədə kompüterlərin bizdən daha sürətli düşünəcəyini və yavaş insanlardan qurtulacaqları gün gələcək. şirkətlərin daha səmərəli işləməsi üçün."

Şəkil
Şəkil

Bir çox elm adamının süni intellektin təhlükəsini gördüyünü qeyd etmək lazımdır. Fəaliyyətləri bu və ya digər şəkildə süni intellektin inkişafı ilə əlaqəli olan onlarla tanınmış elm adamları, investorlar və sahibkarlar, işin təhlükəsizliyi və sosial faydası məsələsinə daha çox diqqət yetirilməsini tələb edən açıq bir məktub imzaladılar. AI sahəsi. Astrofizik Stephen Hawking və Tesla və SpaceX -in qurucusu Elon Musk bu sənədə imza atanlar arasındadır. Məktub, Həyatın Gələcəyi İnstitutu (FLI) tərəfindən hazırlanan müşayiətedici sənədlə birlikdə, süni intellektin əmək bazarına təsiri və hətta bütün insanlığın uzun müddət yaşaması ilə bağlı narahatlıqların artması fonunda yazılmışdır. Robotların və maşınların imkanlarının demək olar ki, nəzarətsiz artacağı bir mühit.

Elm adamları, bu gün AI -nin potensialının çox böyük olduğunu başa düşürlər, buna görə də müşayiət olunan tələlərin qarşısını almaq üçün bizim üçün optimal istifadə imkanlarını tam araşdırmaq lazımdır, FLI məktubunda qeyd olunur. İnsan istehsalı olan AI sistemlərinin tam olaraq nə istədiyimizi etməsi vacibdir. Qeyd edək ki, "Gələcəyin Həyatı İnstitutu" "insanlığın üzləşdiyi riskləri minimuma endirmək" və "optimist baxış" ilə araşdırmaları stimullaşdırmaq üçün Skype -ın yaradıcısı Jaan Tallinn də daxil olmaqla bir çox həvəskarlar tərəfindən təsis edilmişdir. gələcəyin”. Əvvəla, burada AI və robot texnikasının inkişafından yaranan risklərdən bəhs edirik. FLI Məsləhət Şurasına Musk və Hawking, məşhur aktyor Morgan Freeman və digər məşhur adamlar daxildir. Elon Muska görə, süni intellektin nəzarətsiz inkişafı nüvə silahından daha təhlükəlidir.

Məşhur İngilis astrofiziki Stephen Hawking, 2015 -ci ilin sonunda AI texnologiyalarından imtina etdiyini izah etməyə çalışdı. Onun fikrincə, zaman keçdikcə super ağıllı maşınlar insanlara vəzifələrinin həllinə mane olan istehlak materialı və ya qarışqa kimi baxacaq. Reddit portalının istifadəçiləri ilə söhbət edən Stephen Hawking, bu cür ağıllı maşınların intellektual üstünlüyünə görə bütün insanlığı məhv etmək istəyən "pis canlılar" olacağına inanmadığını qeyd etdi. Çox güman ki, insanlığı görməyəcəkləri barədə danışmaq mümkün olacaq.

Şəkil
Şəkil

“Son zamanlar media mənim sözlərimi daim təhrif edir. Süni intellektin inkişafında əsas risk maşınların pisliyi deyil, bacarıqlarıdır. Mükəmməl ağıllı süni intellekt əla bir iş görəcək, amma bu və məqsədlərimiz üst -üstə düşməsə, bəşəriyyətin çox ciddi problemləri olacaq”deyə məşhur alim izah edir. Nümunə olaraq, Hawking, super güclü bir AI-nin yeni bir hidroelektrik bəndinin istismarı və ya tikintisindən məsul olduğu hipotetik bir vəziyyəti göstərdi. Belə bir maşın üçün, etibar edilən sistemin nə qədər enerji istehsal edəcəyi prioritet olacaq və insanların taleyinin heç bir əhəmiyyəti olmayacaq. Qarışqa yuvalarını tapdalayan və hirsdən qarışqaları tapdalayan bizdən az adam var, amma bir vəziyyəti təsəvvür edək - siz elektrik enerjisi istehsal edən güclü bir su elektrik stansiyasına nəzarət edirsiniz. Suyun səviyyəsini qaldırmaq lazımdırsa və hərəkətləriniz nəticəsində bir qarışqa yuvası su altında qalacaqsa, boğulan həşərat problemləri sizi narahat etməyəcək. Gəlin insanları qarışqaların yerinə qoymayaq”dedi alim.

Süni intellektin daha da inkişaf etdirilməsi üçün ikinci potensial problem, "maşın sahiblərinin zülmü" ola bilər - istehsalı inhisara ala biləcək zəngin insanlar arasındakı gəlir səviyyəsindəki uçurumun sürətlə artması. ağıllı maşınlar və dünya əhalisinin qalan hissəsi. Stephen Hawking, bu mümkün problemləri aşağıdakı şəkildə həll etməyi təklif edir - AI inkişafı prosesini yavaşlatmaq və yalnız çox məhdud problemləri həll edə biləcək "universal" deyil, yüksək ixtisaslaşmış süni intellektin inkişafına keçmək.

Hawking və Musk ilə yanaşı, məktub Nobel mükafatı laureatı və MIT fizikası professoru Frank Wilczek, Maşın İntellekt Tədqiqatları İnstitutunun (MIRI) icraçı direktoru Luc Mühlhauser və böyük İT şirkətlərindən bir çox mütəxəssis tərəfindən imzalanmışdır: Google, Microsoft və IBM, həmçinin Vicarious və DeepMind AI şirkətlərini quran sahibkarlar. Məktub müəllifləri cəmiyyəti qorxutmaq məqsədi daşımadıqlarını, ancaq süni intellektin yaradılması ilə əlaqəli həm müsbət, həm də mənfi cəhətlərini vurğulamağı planlaşdırdıqlarını qeyd edirlər. Məktubda deyilir: "Hal -hazırda hər kəs süni intellekt sahəsindəki araşdırmaların durmadan irəlilədiyini və AI -nin müasir insan cəmiyyətinə təsirinin yalnız artacağını qəbul edir". təklif var zəka tərəfindən yaradıldı. adam. İnsan zəkasının AI ilə vurula biləcəyi təqdirdə nəyə nail ola biləcəyimizi proqnozlaşdıra bilmərik, ancaq yoxsulluqdan və xəstəlikdən qurtulmaq problemi sonsuz dərəcədə çətin deyil."

Şəkil
Şəkil

Süni intellekt sahəsindəki çoxsaylı inkişaflar, görüntü və nitq tanıma sistemləri, pilotsuz nəqliyyat vasitələri və daha çox daxil olmaqla, artıq müasir həyata daxil edilmişdir. Silikon Vadisi müşahidəçilərinin hesablamalarına görə, hazırda bu sahədə 150 -dən çox startap həyata keçirilir. Eyni zamanda, bu sahədəki inkişaflar getdikcə daha çox sərmayə cəlb edir və Google kimi daha çox şirkət AI -yə əsaslanan layihələrini inkişaf etdirir. Buna görə də məktub müəllifləri hesab edirlər ki, insan həyatının iqtisadi, sosial və hüquqi aspektləri üçün müşahidə olunan bumun bütün mümkün nəticələrinə daha çox diqqət yetirməyin vaxtıdır.

Süni intellektin insanlar üçün təhlükə yarada biləcəyi mövqeyi antropik prinsip üzərində çalışması ilə tanınan Oksford Universitetinin professoru Nik Bostrom paylaşır. Bu mütəxəssis, AI -nin insanlarla uyğunsuzluğunun ardınca gələcəyi nöqtəsinə gəldiyinə inanır. Nik Bostrom, hökumətlərin nəzarət etmək üçün kifayət qədər vəsait ayırdığı gen mühəndisliyi və iqlim dəyişikliyindən fərqli olaraq, "süni intellektin təkamülünü idarə etmək üçün heç bir iş görülmədiyini" vurğulayır. Professorun sözlərinə görə, hazırda süni intellektlə bağlı "doldurulması lazım olan hüquqi boşluq siyasəti" aparılır. Hətta zərərsiz və faydalı görünən özünü idarə edən avtomobillər kimi texnologiyalar da bir sıra suallar doğurur. Məsələn, belə bir avtomobilin sərnişinlərini xilas etmək üçün təcili əyləc etməsi lazımdırmı və pilotsuz nəqliyyat vasitəsi tərəfindən qəza baş verərsə kim məsuliyyət daşıyacaq?

Potensial riskləri müzakirə edən Nik Bostrom, "kompüterin insanlara faydalarını və zərərlərini təyin edə bilmədiyini" və "insan əxlaqı haqqında ən kiçik bir təsəvvürünün belə olmadığını" qeyd etdi. Alim deyir ki, kompüterlərdə özünü inkişaf etdirmə dövrləri elə bir sürətlə baş verə bilər ki, insan onu izləyə bilməz və bu barədə demək olar ki, heç nə etmək olmaz. "Kompüterlərin özləri üçün düşünə biləcəyi inkişaf mərhələsində, bunun xaosa səbəb olub -olmayacağını və ya dünyamızı əhəmiyyətli dərəcədə yaxşılaşdıracağını heç kim dəqiq deyə bilməz" deyən Nik Bostrom, kompüter üçün mümkün olan sadə bir həll yolunu göstərərək bağladı. soyuq iqlimi olan ölkələrdə insanların sağlamlığını yaxşılaşdırmaq və dözümlülüklərini artırmaq üçün "süni zəkanın başına gələ bilər".

Şəkil
Şəkil

Bundan əlavə, Bostrom, bioloji zəkamızı artırmaq üçün insan beynini sındırmaq problemini də gündəmə gətirir. "Bir çox cəhətdən belə bir prosedur bütün proseslərə nəzarət edildikdə faydalı ola bilər, amma implantasiya edilmiş çip özünü yenidən proqramlaşdıra bilsə nə olar? Bu hansı nəticələrə gətirib çıxara bilər - supermenin ortaya çıxmasına və ya yalnız insana bənzəyəcək bir kompüterin ortaya çıxmasına? " - professor soruşur. Kompüterlərin insan problemlərini həll etmə üsulu bizimkilərdən çox fərqlidir. Məsələn, şahmatda insan beyni onlardan ən yaxşı variantı seçərək yalnız dar bir hərəkətlər qrupunu nəzərdən keçirir. Öz növbəsində, kompüter ən yaxşı birini seçərək bütün mümkün hərəkətləri nəzərdən keçirir. Eyni zamanda, kompüter oyunda rəqibini kədərləndirəcəyini və ya təəccübləndirəcəyini gözləmir. Bir insandan fərqli olaraq, şahmat oynayan kompüter, təsadüfən hiyləgər və incə bir hərəkət edə bilər. Süni intellekt ən yaxşı şəkildə hesablaya bilər - oradan "insan faktorunu" çıxararaq hər hansı bir sistemdəki səhvləri aradan qaldırmaq üçün, ancaq bir insandan fərqli olaraq, robot insanların həyatını xilas edəcək işlər görməyə hazır deyil.

Digər şeylər arasında ağıllı maşın sayının artması yeni bir sənaye inqilabının mərhələsini təmsil edir. Bu da öz növbəsində yaxın gələcəkdə bəşəriyyətin qaçılmaz sosial dəyişikliklərlə üzləşəcəyi deməkdir. Vaxt keçdikcə iş yüksək ixtisaslı mütəxəssislərə çevriləcək, çünki demək olar ki, bütün sadə işləri robotlar və digər mexanizmlər həyata keçirə bilər. Alimlər hesab edirlər ki, süni intellektin "gözə və gözə ehtiyacı var" ki, planetimiz robotların yaşadığı "Zhelezyaka" cizgi planetinə çevrilməsin.

İstehsal proseslərinin getdikcə daha çox avtomatlaşdırılması baxımından gələcək artıq gəlib çatmışdır. Dünya İqtisadi Forumu (WEF), hesabatına görə, avtomatlaşdırma 2020 -ci ilə qədər müxtəlif sahələrdə çalışan 5 milyondan çox insanın işini itirəcəyinə səbəb olacaq. Bu, robotların və robot sistemlərinin həyatımıza təsiridir. Hesabatı tərtib etmək üçün WEF işçiləri dünyanın hər yerindən 13,5 milyon işçi haqqında məlumatlardan istifadə etdilər. Onların fikrincə, 2020 -ci ilə qədər 7 milyondan çox iş yerinə olan ehtiyac azalacaq, digər sahələrdə məşğulluğun gözlənilən artımı isə 2 milyondan çox iş yerini təşkil edəcək.

Tövsiyə: