Elon Musk - yapay zekanın dezavantajları

  • geçen ay
Elon Musk'ın yapay zeka konusundaki görüşleri..

Category

🤖
Tech
Transcript
00:00YAPAY ZEKA TAHLİKESİ NÜKLEER TEHLİKESİNDEN ÇOK DAHA FAZLADIR
00:06Bence yapay zeka tehlikesi nükleer tehlikesinden çok daha fazladır.
00:14Sözlerime dikkat edin.
00:15Yapay zeka nükleerden çok daha tehlikelidir.
00:21İnsanları yavaşlatmaya çalışıyordum.
00:23Yapay zekayı yavaşlatmak için onu düzenlemeye ikna etmeye çalışıyordum.
00:28Bu boşunaydı.
00:31Yıllar boyunca denedim.
00:34Sözde yapay zeka uzmanlarıyla ilgili gördüğüm en büyük sorun
00:38Bildiklerinden daha fazlasını bildiklerini düşünmeleri.
00:41Ve gerçekte olduklarından daha akıllı olduklarını düşünüyorlar.
00:45Bu akıllı insanları rahatsız etme eğilimindedir.
00:49Kendilerini zekalarıyla tanımıyorlar ve bir makinenin kendilerinden çok daha akıllı olabileceği fikrinden hoşlanmıyorlar.
00:58Bu yüzden temelde kusurlu olan fikri görmezden geliyorlar.
01:01Bu insanın düşünme şeklidir.
01:04Şuna gerçekten çok yakınım.
01:05Gelişmiş yapay zeka teknoloji evrimine çok yakınım ve bu beni çok korkutuyor.
01:11Neredeyse herkesin bildiğinden çok daha fazlasını yapabilir.
01:15Ve gelişme oranı üsteldir.
01:18Yapay zeka için etkili bir şekilde biyolojik ön yükleyici bizmişiz gibi geliyor.
01:23Biz inşa ediyoruz.
01:25Ve sonra giderek daha fazla zeka inşa ediyoruz.
01:29Ve insan olmayan zeka yüzdesi artıyor.
01:32Ve sonunda zekanın çok küçük bir yüzdesini temsil edeceğiz.
01:37Herkesin takdir ettiğinden daha hızlı gelecek.
01:39Bence bu her geçen yıl bilgisayar zekasının karmaşıklığı çarpıcı biçimde artıyor.
01:46Demek istediğim gerçekten yapay zekanın üstel bir gelişim yolunda olduğumuzu düşünüyorum.
01:52Yapay zeka geliştiren akıllı insanların sayısı da çarpıcı bir biçimde artıyor.
01:57Yani yapay zeka konferanslarında katılımlara bakarsanız her yıl ikiye katlanıyorlar.
02:02Doluyorlar.
02:04Berkeley Üniversitesi'nden bilgisayar bilimi bölümünden mezun olan genç bir kuzenim var.
02:09Ona kaç zeki öğrenci yapay zeka ve bilgisayar bilimi okuyor diye sordum.
02:13Ve cevabı hepsiydi.
02:16Daha iyi bir yaklaşım veya daha iyi bir sonuç, yapay zeka teknolojisinin demokratikleşmesini sağlamamızdır.
02:23Yani hiçbir şirket veya küçük bir grup, kişi, gelişmiş yapay zeka teknolojisi üzerinde kontrole sahip olmamalıdır.
02:30Bunun çok tehlikeli olduğunu düşünüyorum.
02:33Aynı zamanda kötü biri tarafından çalınabilir.
02:36Ülkeler onu çalmak ve kontrolü ele geçirmek için istihbarat teşkilatını gönderebilir.
02:41Kısaca çok istikrarsız bir durum haline gelir.
02:43Bence inanılmaz derecede güçlü bir yapay zekanız varsa, bunu kimin kontrol edeceğini bilemezsiniz.
02:50Yani yapay zekanın kendi kendine gelişme riski olduğunu düşünmüyorum.
02:54Bence endişe, birisinin onu kötü bir şekilde kullanabilmesidir.
02:58Ya da o kadar kötü bir şekilde kullanmayacak olsalar bile, biri onu onlardan alıp kötü bir şekilde kullanabilir.
03:04Bu bence oldukça büyük bir tehlike.
03:09Hepimiz zaten sayborguz.
03:11Yani telefonunuz ve bilgisayarınız ve tüm uygulamalarınız şeklinde kendinize ait bir makine uzantınız var.
03:18Siz zaten insanüstüsünüz.
03:21Ancak Amerika Birleşik Devletleri Başkanı'nın 30 yıl önce sahip olduğundan çok daha güçlü bir yeteneğe sahipsiniz.
03:27Bir internet bağlantınız varsa, milyonlarca insanla iletişim kurabilir, dünyanın geri kalanıyla anında iletişim kurabilirsiniz.
03:35Ve bunlar çok uzun zaman önce var olmayan sihirli güçler.
03:38Yani herkes zaten insanüstü.
03:41Bence tekillik muhtemelen doğru kelime.
03:44Çünkü insan beyninde önemli ölçüde daha büyük bir zeka olduğunda ne olacağını bilmiyoruz.
03:49Şunu söylemeliyim ki, yapay zeka içeren filmlerin ve TV'lerin çoğu onu gerçekte gerçekleşmesi muhtemel şekilde tam olarak tanımlamıyorlar.
03:59Ama bence yapay zekanın bir insandan çok daha akıllı olduğu iyi huylu senaryoda bile düşünmeniz gerekiyor.
04:05Peki, biz ne yapıyoruz? Evet, bizim ne işimiz var?
04:11Bir şey halk için tehlike oluşturduğunda, düzenleyiciler gibi bir devlet kurumunun olması gerektiğini söylemeliyim.
04:18Gerçek şu ki, uçak endüstrisinde, araba endüstrisinde uyuşturucu gıda ve bir tür kamu riski olan herhangi bir şeyle ilgili düzenleyicilerimiz var.
04:27Demek istediğim, bunun kamu riski kategorisine girmesi gerektiğini düşünüyorum.
04:30Genellikle yeni olan bir teknoloji hasara veya ölüme neden olur.
04:36Bir haykırış olacak, bir soruşturma olacak, yıllar geçecek, bir tür içgörü komitesi olacak, kural koyma olacak, sonra gözetim olacak, sonunda düzenlemeler olacak.
04:47Bütün bunlar uzun yıllar alır, bu işlerin normal seyridir.
04:51Örneğin otomotiv yönetmeliklerine bakarsanız, emniyet kemerinin zorunlu hale gelmesi ne kadar sürdü?
04:57Bilirsiniz, otomobil endüstrisi 10 yıldan fazla bir süredir emniyet kemeriyle savaştı.
05:02Başarıyla savaştı.
05:04Rakamlar son derece açık olmasına rağmen, emniyet kemerleriyle ilgili herhangi bir düzenleme olmadı.
05:09Emniyet kemeriniz takılı olsaydı, ölme veya ciddi şekilde yaralanma olasılığınız çok daha düşük olurdu.
05:15Bu tartışmaya kapalıydı.
05:17Ve endüstri bununla yıllarca başarılı bir şekilde savaştı.
05:21Sonunda birçok insan öldükten sonra düzenleyiciler emniyet kemerlerinde ısrar ettiler.
05:26Bu zaman çerçevesi yapay zeka ile ilgili değildir.
05:30Tehlikeli olduğunda 10 yıl beklemezsiniz.
05:33Bu çok geç olur.
05:38Normalde düzenleme ve gözetim savunucusu değilim.
05:41Demek istediğim, sanırım bir kez genel olarak bu şeyleri en azından indirme taraftarıyım.
05:46Ama bu, halk için çok ciddi bir tehlikenin olduğu bir durumdur.
05:50Bu nedenle herkesin yapay zekayı güvenli bir şekilde geliştirdiğini doğrulamak için,
05:55içgörüye ve ardından gözetime sahip bir kamu kurumu olması gerekir.
05:59Bu son derece önemlidir.
06:01Yapay zekanın tehlikesi nükleer silah tehlikesinden çok daha fazladır.
06:06Ve hiç kimse eğer isterse herhangi birinin nükleer silah yapmasına izin vermemizi önermez.
06:13Bu delilik olurdu.
06:15Öyleyse neden düzenleyici bir gözetimimiz yok?
06:17Bu çılgınlıktır.
06:19Ve Open AI ile amaç yapay zekanın gücünü demokratikleştirmektir.
06:25Lord Acton'dan sevdiğim bir alıntı var.
06:28Güç yozlaştırır ve mutlak güç kesinlikle yozlaştırır sözünü söylerdi.
06:33Alıntı ise şöyle.
06:35Özgürlük, yoğunlaşmasında gücün ve despotizmin dağılımından oluşur.
06:40Bu yüzden yapay zekanın bu inanılmaz gücüne sahipsek,
06:43birkaç kişinin elinde yoğunlaşmaması ve potansiyel olarak istemediğimiz bir dünyaya yol açmaması gerektiğini düşünüyorum.
06:51Aslında kısa vadeli şeyler için o kadar endişelenmiyorum.
06:54Dar yapay zeka gibi şeyler tür düzeyinde bir risk değildir.
06:58Kaybedilen işlerde ve bu tür daha iyi silahların ve bu tür şeylerin bozulmasına neden olacak.
07:04Ancak bu temel tür düzeyinde bir risk değildir.
07:08Oysa dijital süper zeka öyle.
07:10Dolayısıyla gerçekten tüm mesele insanlık toplu olarak dijital süper zeka yaratmanın doğru hareket olduğuna karar verirse,
07:18o zaman bunu çok çok dikkatli, çok çok dikkatli bir şekilde yapmamız gerekir.
07:23Hızla herhangi bir insanı aşan dijital süper zekaya doğru gidiyoruz.
07:29Bence bu apaçıktır.

Önerilen