Dünyanın en zeki bilim insanlarından olan fizikçi ve kozmolog Stephen Hawking önemli açıklamalarda bulundu. Hawking, yapay zeka insan zekasının önüne geçecek diyor.
Yeni teknolojilerin gelişmesi ile birlikte çalışmaları da çok hızlı şekilde gelişiyor. Bu durumun en güzel örneklerini ise oyunlarda görebiliyoruz. Bir zamanlar tetris gibi oyunlar oynarken, bugün savaş oyunlarında yanımızdaki yapay zekaya sahip askerler ile savaşıyoruz.
Yapay zekanın gelişimi oyun dünyasında iyi bir gelişme olsa da, gerçek hayatta pek çok kişi için büyük tehlikeler ortaya çıkarabilir. Kimi insalar pilini benim dolduracağım alet beni nasıl ele geçirecek diye düşünse de, aslında durum sadece yapay zekaya sahip robotu şarj etmekten ibaret değil.
Yapay zeka kendini şarj edebilir
Zira yeterince gelişmiş bir robot, şarjının biteceğini anlayıp şarjı bitmeden kendini şarj edebilir. Bu şekilde herhangi bir insanın şarjını doldurmasına ihtiyaç duymaz. Aynı şekilde robotların sayıları birden fazla olduğunda, birbirlerinin bakımlarını yaparak insanlardan çok daha uzun yıllar varolabilirler.
Ünlü isimler yapay zekanın çok tehlikeli olduğunu söylüyor
İşte bu gibi durumlardan endişelenen pek çok ünlü bilim insanı ya da tanıdığımız Bill Gates ve Elon Musk gibi isimler, yapay zeka çalışmalarının bir noktadan sonra durmasını istiyorlar.
Bu konuda bir açıklamada, kısa süre önce ünlü fizikçi ve kozmolog Stephen Hawking’den geldi. Dünyanın en zeki insanlarından biri olarak görülen Hawking, açıklamasında 100 yıl sonra yapay zeka insan zekasının önüne geçecek. Bu durumda yapay zekaya sahip robotların bizimle aynı gelecek planları olup olmadığını bilemeyiz diye konuştu.
Matrix gerçek olabilir
Yani Hawking, belki 100-150 yıl içerisinde Matrix‘in gerçek olabileceğini belirtiyor. Kısaca hatırlatmak gerekirse, Matrix filminde yapay zekalı canlılar insanları kontrolü altına almış, yapay zekalı canlıların elinden kurtulan şanslı birkaç yüz insan ise, onlarla barış içerisinde yaşamak için üçüncü filmin sonuna kadar büyük çaba harcamışlardı.
Ancak gerçek hayatta filmdeki sahneler olmayabilir. Yani hiçbir zaman Matrix dünyasından çıkamayabiliriz. Yada daha büyük sorunlar yaşayabiliriz. İşte bu yüzden yapay zeka çalışmalarının bir noktadan sonra durması yada çok ciddi kontrollü çalışmalar altında devam etmesi gerekiyor.