Teknoloji uzmanları, araştırmalarına atıfta bulunarak yapay zekaya ara verilmesi çağrısında bulunan mektubu eleştirdi: ‘korku’

Yapay zeka uzmanlarından, AI araştırmalarının durdurulması çağrısında bulunan açık bir mektupta alıntı yapıldı, kendilerini mektuptan uzaklaştırdı ve bunu “korku” olarak çarptı.

“Mektupta hemfikir olduğumuz (ve 2021 hakemli makalemizde gayri resmi olarak ‘rastlantısal papağanlar’ olarak biliniyor) ‘bunun gibi düzeltme ve filigran sistemlerinin gerçek medyayı yapaydan ayırt etmeye yardımcı olabileceğine’ dair bir dizi tavsiye var. Bunlar: Korku ve yapay zeka abartısının gölgesinde kalan, ‘İnsan-Rekabetçi Zeka’ ile Söylemi Hayali ‘Güçlü Dijital Zihinlerin Risklerine Yönlendiriyor’,” Timnit Kebru, Emily M. Bender, Angelina McMillan-Major ve Margaret Mitchell bir açıklamada yazdı Cuma gününde.

Bir teklife dört teknisyen dahil edildi Mektup bu hafta başlarında yayınlandı Güçlü AI sistemlerini eğitmek, en az altı aylık bir ara gerektirir. Mektup, Cumartesi günü Tesla ve Twitter CEO’su Elon Musk ve Apple kurucu ortağı Steve Wozniak da dahil olmak üzere 2.000’den fazla imza topladı.

Mektup, “Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zeka laboratuvarları tarafından kabul edildiği üzere, insanlarla rekabet eden zekaya sahip yapay zeka sistemleri, toplum ve insanlık için derin riskler oluşturabilir” diye başlıyor. Açık mektup, “dönüştürücü teknolojilerden kaynaklanan ciddi riskleri azaltmak için çalışan” kâr amacı gütmeyen bir kuruluş olan Future of Life Institute tarafından yayınlandı.

TECH CEO’su, uzmanlar altı aylık bir moratoryumun arkasında toplanırken AI’nın ‘insanı yok etme’ riskiyle karşı karşıya olduğu konusunda uyardı

Kebru, Bender, McMillan-Major ve Mitchell’in akran değerlendirmesi makalesi, “The Perils of Stokastik Papağanlar: Dil Modelleri Çok Büyük Olabilir mi?” Mektubun açılış cümlesinden ilk dipnot olarak bahsediliyor, ancak araştırmacılar mektubun “AI yutturmaca” yaydığını söylüyor.

Dördü, “‘Gürleyen’ veya ‘potansiyel olarak felaket’ bir gelecek vaat eden yapay zeka destekli hayali ütopyalar veya kıyametlerle dikkatimizi dağıtmak tehlikelidir” diye yazdı. “Otomatik sistemlerin yeteneklerini yücelten ve onları antropomorfize eden bu tür bir dil, insanları, stokastik papağanlarda gördüğümüz gibi, yapay ortamların arkasında bir duyarlılık olduğuna inandırarak aldatıyor.”

AI PAUSE, “kötü adamları” yakalamak için zaman veriyor, diyor Bill Ackman: “Başka seçeneğimiz olduğunu düşünmüyorum”

Mitchell daha önce Google’da etik AI araştırmalarını yönetti ve şu anda AI laboratuvarı Hugging Phase’de baş etik bilimcisi olarak çalışıyor. Reuters’e, mektubun özellikle “GPT-4’ten daha güçlü” AI teknolojisi konusunda askıya alınması gerektiğini söyledi ve hangi AI sistemlerinin bu parametreleri kırmaya hak kazanacağının belirsiz olduğunu ekledi.

ChatGPT ana ekranı

Bilgisayar ekranında Amerikan şirketi OpenAI’den ChatGPT’ye hoş geldiniz yazısı görülüyor. ((Fotoğraf Silas Stein/Getty Images aracılığıyla Image Alliance)/Getty Images)

“Bir dizi şüpheli fikir göz önüne alındığında, mektup bir dizi önceliği ve savunuculara fayda sağlayan bir AI anlatısını teşvik ediyor. [Future of Life Institute],” dedi. “Artık çok azımızın aktif zararı görmezden gelmesi bir ayrıcalık.”

Mektupta adı geçen başka bir uzman, Connecticut Üniversitesi’nde profesör olan Shiri Torey-Hacohen, Reuters’e mektupta belirtilen bazı noktalara katıldığını ancak araştırmasının nasıl kullanıldığına katılmadığını söyledi.

Torey-Hacohen, geçen yıl “Potansiyel Varoluşsal Risk Faktörü Olarak Mevcut ve Yakın Vadeli Yapay Zeka” başlıklı bir araştırma makalesinin ortak yazarlarından biri olup, yapay zekanın yaygın kullanımının zaten risk oluşturduğunu ve iklim değişikliği ve nükleer gibi konularda kararları etkileyebileceğini savundu. enerji. Reuters’e göre savaş.

READ  Sert çizgideki Cumhuriyetçiler, McCarthy'nin Meclis Başkanı teklifine karşı çıkıyorlar

Teknolog AI için bir uyandırma çağrısı: ‘Kurt’ burada

“Yapay zekanın bu riskleri artırmak için insan düzeyinde zekaya ulaşmasına gerek yok” dedi.

“Var olmayan, aslında çok önemli olan, ancak Hollywood seviyesindeki aynı ilgiyi görmeyen riskler var.”

OpenAI CEO'su Sam Altman sahnede

Y Combinator başkanı Sam Altman, 25 Şubat 2019 Pazartesi, ABD, California, Half Moon Bay’deki Yeni İşler Zirvesi’nde konuşuyor. Etkinlik, yapay zekada ortaya çıkan fırsatları ve riskleri değerlendirmek için güçlü liderleri bir araya getiriyor. (Getty Images/Getty Images aracılığıyla David Paul Morris/Bloomberg)

CHATGPT ile sanki bir erkekmiş gibi röportaj yaptım; İşte beni ürperten söylemem gereken şey

Mektup, AI liderlerinin “gelişmiş AI tasarımı ve geliştirmesi için bağımsız harici uzmanlar tarafından titizlikle denetlenen ve izlenen paylaşılan güvenlik protokolleri oluşturması ve uygulaması” gerektiğini savunuyor.

Mektupta, “Paralel olarak, AI geliştiricileri, sağlam AI yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır.”

Kebru, Bender, McMillan-Major ve Mitchell, “gerçekten harekete geçme zamanının geldiğini” ancak “endişemizin odak noktasının hayali ‘güçlü dijital beyinler’ üzerinde olmaması gerektiğini savunuyorlar. Dikkat etmeliyiz.”

Future of Life Enstitüsü başkanı Max Teckmark Reuters’e verdiği demeçte, “Birinden alıntı yaparsak, bu cümleyi desteklediğini söylüyoruz.”

Elon Musk, Apple Kurucu Ortağı, Diğer Teknoloji Uzmanları “Dev Yapay Zeka Deneyleri”: “Tehlikeli Yarış” Konusunda Duraklatma Çağrısı Yapıyor

Bu, mektubu onayladıkları veya düşündükleri her şeyi bizim onayladığımız anlamına gelmiyor” dedi.

2015 yılında Life of Life Enstitüsü’ne 10 milyon dolar bağışta bulunan ve dışarıdan danışman olarak görev yapan Musk’ın rekabeti durdurmak için suçlamayı yönetmeye çalıştığı yönündeki eleştirileri de savuşturdu.

“Çok komik. İnsanların ‘Elon Musk rekabeti yavaşlatmaya çalışıyor’ dediğini gördüm” dedi. “Bir şirketle ilgili değil.”

Techmark, Musk’ın mektubun hazırlanmasında hiçbir rolü olmadığını söyledi.

Fox Business hakkında daha fazla bilgi edinmek için buraya tıklayın

Future of Life Enstitüsü’nün mektubunda alıntılanan bir başka uzman, Reuters’e göre California merkezli Yapay Zeka Güvenliği Merkezi’nden Dan Hendricks, mektubun içeriğine katıldığını söyledi. Gazeteye göre, gerçekleşmesi muhtemel olmayan ancak ortaya çıkarsa korkunç sonuçları olabilecek olaylar olarak tanımlanan “kara kuğu olaylarını” dikkate almanın pratik olduğunu savundu.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir