Хокинг: Изкуственият интелект е заплаха за човечеството

hokingПрофесор Стивън Хокинг, един от най-уважаваните и известни британски учени, зяви, че усилията за  създаване на мислещи машини може да доведе до това, че самото съществуване на човечеството да се окаже в опасност. В интервю за Би Би Си, той каза, че „появата на пълноценен изкуствен интелект може да е  краят на човешката раса.“

Тази апокалиптична прогноза е направена в отговор на въпрос за новата технология, която професорът използва за комуникация с външния свят. За щастие не всички, вярват в такива мрачни перспективи.
Стивън Хокинг обаче се опасява, че машините ще надминат  своите създатели

Професор Хокинг, който страда от амиотрофична латерална склероза, за  да говори използва специална система, разработена от американската компания Intel.

В създаването на оборудването за Хокинг са участвали и експерти по обучение на  на изкуствения интелект от британската компания Swiftkey. Тяхната технология вече се използва в клавиатурата на смартфони, „изучава“ хода на мислите на професора и предлага думи, които той да може да използва в следващото изречение.

Стивън Хокинг отбелязва, че примитивните форми на изкуствен интелект, съществуващи към днешна дата, са полезни, но той се опасява, че човечеството ще създаде нещо, което ще надмине своя създател.

„Такъв разум ще  поеме инициативата и започне да се самоусъвършества с нарастваща скорост.  Възможностите на хората са ограничени от твърде бавната еволюция, ние не можем да се конкурираме  със скоростта на машините и ще загубим.“ – казва Хокинг.
А може би това не е толкова страшно?

Въпреки това, не всички се придържат към такава песимистична гледна точка.

„Мисля, че ние ще останем господари на технологиите, които създаваме,  много, много дълго време, и те ще ни помогнат да  решим много проблеми в света“ – счита Роло Карпентър, създател на уебприложението Cleverbot.

Cleverbot се доказва добре в така наречения тест на Тюринг. Същността на теста на Тюринг е в това: Може ли човек, който  общува с друг човек и компютър, въз основа на отговорите на въпросите, да  определи в кой  от случаите  негов събеседник е  човек, и в кой – машина.  Задачата на компютъра е –  така се адаптира към човешката логика, че да не позволи да бъде  разпознат.

Cleverbot успява да заблуди много хора, успешно симулирайки процеса на човешката мисъл.
Бунтът на машините
Във филма на Стенли Кубрик „2001: Космическа одисея“ разбунтувал се  компютър застрашава живота на астронавтите.

Роло Карпентър смята, че до  създаването на  необходимите алгоритми, които ще доведат до появата на пълноценен изкуствен интелект, остават  няколко десетилетия.

„Ние не можем да кажем със сигурност какво ще се случи, когато интелигентността на машината ще ни надмине, ето защо, ние не можем да предскажем  как те ще се държат:  дали те ще ни помагат, ще ни игонорират или рано или късно ни унищожат“ – предполага той.

Само че  Carpenter все още е склонен да вярва, че изкуственият интелект ще бъде позитивна сила.

В същото време професор Хокинг не е сам в песимистичната си визия за бъдещето.

Има опасения, че в краткосрочен план машините, обучени да изпълняват мръсна механична работа,  ще лишат хората от милиони работни места.
Предприемачът и основател на частна космическа агенция Елън Мъск се опасява също, че компютрите могат да се превърнат в  заплаха за нашето съществуване

А в по-далечно бъдеще машините  може да се превърнат в „основна заплаха за нашето съществуване.“

Компютърната реч

В интервю за Би Би Си  професор Хокинг засяга  и ползите и опасностите от интернета.

Той цитира директора на Британския център за наблюдение на комуникациите (GCHQ) Робърт Ханиган, който предупреди, че интернет се превръща в команден център за терористични организации. „Интернет компаниите трябва да направят повече, за да се противодейства на тази заплаха. Обаче трудността се крие във факта,   да не бъдат засегнати свободата или на правото на личен живот.“ – предупреди Hannigan, а  след него това повтори и   професор Хокинг.

Related Posts

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *