Макар и в една твърде ранна фаза на практически разработки, идеята за появата на изкуствения интелект и възможността от развитието на напълно автономно мислеща и съзнаваща машина, плаши не един и двама човека. ЗасегаТ-1000е само в екранна форма, но това, според редица учени и специалисти може да се промени скоро, или може би не чак толкова скоро.
Един от тези учени, които тръбят за появата на робо-апокалипсис е и изтъкнатият физикСтивън Хоукинг. Ощеминалата годинатой изрази своите страхове по отношение на изкуствения интелект, опасявайки се, че макар и в краткосрочен план ние да имаме способността да упражняваме контрол над него, то в дългосрочна перспектива, това може да не е така. Тогава той смекчи мрачната картина, която описва, като добави, че докато изкуственият интелектможе да се окаже край на човечеството, то той може и да се окаже нещо изключително полезно за човек.
Тези дни Хоукинг присъства на конференциятаZeitgeist 2015, където беше гост, и отново говори по въпроса забъдещето на изкуствения интелект. И този път той не се поколеба да начертае мрачни краски, свързани с възможността да имаме напълно автономен изкуствен интелект някой ден. „Компютрите ще превземат хората чрез изкуствения си интелект в даден момент през следващите 100 години“, сподели Хоукинг пред гостите на конференцията. „Когато това се случи, ние ще трябва да сме се подсигурили, че целите на машините съвпадат с нашите собствени“. Хоукинг по-рано тази година подписаотворено писмозаедно с редица изтъкнати личности от технологичния свят и други области на познанието, в което призовават за контрол в AI разработките.
Разбира се, примерите за работещ изкуствен интелект днес не са единствено супер машини заемащи пространство, колкото малък хангар, които най-доброто, което могат да покажат е, че успяват да различат сиамска от ангорска котка. Siri иCortanaнапример, са пример за работещаAI технология. Но, засега поне, личните асистенти отAppleиMicrosoftтрябва да бъдат програмирани какво да „мислят“ и „говорят“.
НаскороИлън Мъскпък отново заговори за опасностите на изкуствения интелект, споделяйки, че това е едно твърде опасно съчетание на високите технологии.
А дали Мъск и Хоукинг са прави в предположенията си или мислите по-положително относно възможността за появата нанапълно самостоятелен и самоосъзнат изкуствен интелектподобно на начина, по който го правиАлекс Гарлънд, режисьорът на Ex Machina, оставяме да решите вие. Може да прецените кой по-бързо ще унищожи света – човекът, автор на две световни войни и причина за трагедията на милиони семейства, илиавтономните прахосмукачки.