Yapay zeka devrimi bir devrilme noktasında

TAKİP ET

Bazı teknoloji uzmanları, makine öğrenimi nörolojik yolları, insan yaratıcılarının kullanım niyetleriyle ters düşmeden önce yapay zeka sistemlerinin sürekli gelişimini durdurmak istiyor. Diğer bilgisayar uzmanları, yanlış adımların kaçınılmaz olduğunu ve geliştirmenin devam etmesi gerektiğini savunuyor.

Bazı teknoloji uzmanları, makine öğrenimi nörolojik yolları, insan yaratıcılarının kullanım niyetleriyle ters düşmeden önce yapay zeka sistemlerinin sürekli gelişimini durdurmak istiyor. Diğer bilgisayar uzmanları, yanlış adımların kaçınılmaz olduğunu ve geliştirmenin devam etmesi gerektiğini savunuyor.

1.000'den fazla teknisyen ve yapay zeka aydını, geçtiğimiz günlerde bilgisayar endüstrisinin GPT-4'ten daha güçlü yapay zeka sistemlerinin eğitimi için altı aylık bir moratoryum alması için bir imza kampanyası imzaladı. Taraftarlar, AI geliştiricilerinin güvenlik standartları oluşturmasını ve en riskli AI teknolojilerinin neden olduğu potansiyel riskleri azaltmasını istiyor.

Kâr amacı gütmeyen Future of Life Enstitüsü, tüm önemli geliştiriciler tarafından neredeyse anında kamuya açık ve doğrulanabilir bir durdurma çağrısı yapan dilekçeyi düzenledi. Aksi takdirde, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır. Future of Life Institute, bu hafta itibarıyla inceleme sürecinden geçen 50.000'den fazla imza topladığını söylüyor.

Mektup, genel olarak tüm AI gelişimini durdurma girişimi değildir. Aksine, destekçileri, geliştiricilerin tehlikeli bir yarıştan "gelişmekte olan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine" geri adım atmalarını istiyor. Mola sırasında yapay zeka laboratuvarları ve bağımsız uzmanlar, gelişmiş yapay zeka tasarımı ve geliştirmesi için ortaklaşa bir dizi paylaşılan güvenlik protokolü geliştirmeli ve uygulamalıdır.

Mektupta, "AI araştırma ve geliştirme, günümüzün güçlü, son teknoloji sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye yeniden odaklanmalıdır" diyor.

Destek Evrensel Değil

Güvenlik ve operasyon analitiği SaaS şirketi Netenrich'in baş tehdit avcısı John Bambenek, herhangi birinin herhangi bir şeyi duraklatacağının şüpheli olduğunu öne sürdü. Yine de, yapay zeka projelerinin etik sonuçlarının dikkate alınmasının geliştirme hızının çok gerisinde kaldığına dair artan bir farkındalık görüyor.

TechNewsWorld'e konuşan Bambenek, "Yaptığımız şeyi ve sahip olacağı derin etkileri yeniden değerlendirmenin iyi olacağını düşünüyorum, çünkü konu düşüncesiz AI/ML dağıtımları olduğunda bazı olağanüstü başarısızlıkları zaten gördük."

Siber güvenlik danışmanlık hizmetleri şirketi Coalfire'ın başkan yardımcısı Andrew Barratt, AI alanındaki şeyleri durdurmak için yaptığımız her şeyin muhtemelen sadece gürültü olduğunu ekledi. Bunu küresel olarak koordineli bir şekilde yapmak da imkansızdır.
“Yapay zeka, gelecek birkaç neslin üretkenlik sağlayıcısı olacak. Tehlike, arama motorlarının yerini almasını ve ardından ürünlerini 'akıllıca' yanıtlara yerleştiren reklamcılar tarafından para kazanmasını izlemek olacaktır. Barratt, TechNewsWorld'e verdiği demeçte, ilginç olan, son zamanlarda ChatGPT'ye gösterilen ilgiden bu yana korkudaki 'ani artışın' tetiklenmiş gibi görünmesi.

Durmak yerine Barratt, dünya çapındaki bilgi çalışanlarını üretkenliği sağlamaya yardımcı olmak için daha tüketici dostu hale gelen çeşitli yapay zeka araçlarını en iyi nasıl kullanabileceklerine bakmaya teşvik etmeyi öneriyor. Olmayanlar geride kalacak.

Kitle kaynaklı siber güvenlik şirketi Bugcrowd'un CEO'su Dave Gerry'ye göre, yapay zeka odaklı olsun ya da olmasın, güvenlik ve mahremiyet her teknoloji şirketi için en önemli endişe kaynağı olmaya devam etmeli. Yapay zeka söz konusu olduğunda, modelin gerekli güvenlik önlemlerine, geri bildirim döngüsüne ve güvenlik endişelerini vurgulayacak mekanizmaya sahip olduğundan emin olmak çok önemlidir.

"Kuruluşlar, veri avantajlarının tüm verimliliği, üretkenliği ve demokratikleşmesi için yapay zekayı hızla benimserken, endişeler belirlendikçe, bunları bir güvenlik açığının belirleneceği şekilde ortaya çıkaracak bir raporlama mekanizması olduğundan emin olmak önemlidir. ve bildirildi, ”dedi Gerry TechNewsWorld'e.

Meşru Endişeleri Vurgulamak

Sonuç odaklı yazılım geliştirme şirketi Rootstrap'in kurucu ortağı ve CTO'su olan makine öğrenimi uzmanı Anthony Figueroa, yapay zekanın düzenlenmesi ihtiyacına giderek daha tipik hale gelebilecek bir yanıt olarak, yapay zekanın düzenlenmesini destekliyor ancak geliştirilmesinde bir duraklamanın yol açacağından şüphe ediyor. herhangi bir anlamlı değişiklik için.

Figueroa, şirketlerin hizmetlerinden para kazanmak için yenilikçi çözümler oluşturmasına yardımcı olmak için büyük veri ve makine öğrenimini kullanır. Ancak, düzenleyicilerin doğru hızda hareket edeceklerinden ve düzenlemeleri gerekenlerin sonuçlarını anlayacaklarından şüpheli. Meydan okumayı, yirmi yıl önce sosyal medyanın ortaya koyduğu zorluklara benzer olarak görüyor.

“Yazdıkları mektubun önemli olduğunu düşünüyorum. Bir devrilme noktasındayız ve daha önce sahip olmadığımız ilerlemeyi düşünmeye başlamalıyız. Figueroa, TechNewsWorld'e verdiği demeçte, herhangi bir şeyi altı ay, bir yıl, iki yıl veya on yıl süreyle duraklatmanın mümkün olduğunu düşünmüyorum.

Aniden, AI destekli her şey evrensel bir sonraki büyük şey oldu. OpenAI'nin ChatGPT ürününün bir gecede elde ettiği gerçek başarı, birdenbire dünyanın ayağa kalkıp yapay zeka ve makine öğrenimi teknolojilerinin muazzam gücünü ve potansiyelini fark etmesine neden oldu.

"Bu teknolojinin etkilerini henüz bilmiyoruz. Bunun tehlikeleri nelerdir? Bu iki ucu keskin kılıçta ters gidebilecek birkaç şey biliyoruz,” diye uyardı.

Yapay zekanın düzenlemeye ihtiyacı var mı?

TechNewsWorld, Anthony Figueroa ile makine öğreniminin geliştirici kontrollerine olan ihtiyacı ve yapay zekanın devlet düzenlemesine yönelik potansiyel ihtiyacı çevreleyen sorunları tartıştı.

TechNewsWorld: Bilgisayar endüstrisinde güvenli bir şekilde yolda ilerlemek için hangi yönergeler ve etik kurallar var?

Anthony Figueroa: Kafanda kendi kişisel etik kurallarına ihtiyacın var. Ancak bununla bile, pek çok istenmeyen sonuca sahip olabilirsiniz. Örneğin, bu yeni teknoloji olan ChatGPT ile yaptığımız şey, yapay zekayı büyük miktarda veriye maruz bırakmaktır.

Bu veriler kamu ve özel kaynaklardan ve farklı şeylerden gelir. Beynimizin nasıl çalıştığını incelemekte temelleri olan derin öğrenme adı verilen bir teknik kullanıyoruz.

Bu, etik kuralların ve yönergelerin kullanımını nasıl etkiler?

Figueroa: Bazen yapay zekanın bir sorunu belirli bir şekilde nasıl çözdüğünü anlamıyoruz bile. AI ekosistemindeki düşünme sürecini anlamıyoruz. Buna açıklanabilirlik adı verilen bir kavram ekleyin. Bir kararın nasıl verildiğini belirleyebilmelisiniz. Ancak yapay zeka ile bu her zaman açıklanamaz ve farklı sonuçları vardır.

Bu faktörlerin yapay zekadan farkı nedir?

Figueroa: Açıklanabilir AI biraz daha az güçlü çünkü daha fazla kısıtlamanız var, ancak yine de etik sorunuz var.

Örneğin, bir kanser vakasını ele alan doktorları düşünün. Çeşitli tedavileri var. Üç ilaçtan biri tamamen açıklanabilir ve hastaya %60 iyileşme şansı verecektir. Ardından, tarihsel verilere dayalı olarak %80 iyileşme olasılığına sahip olacak, ancak nedenini gerçekten bilmedikleri açıklanamayan bir tedavi görüyorlar.

Bu ilaç kombinasyonu, hastanın DNA'sı ve diğer faktörlerle birlikte sonucu etkiler. Peki hasta ne almalı? Biliyorsun, bu zor bir karar.

Yapay zeka gelişimi açısından "zekayı" nasıl tanımlarsınız?

Figueroa: Zekayı problem çözme yeteneği olarak tanımlayabiliriz. Bilgisayarlar, sorunları insanlardan tamamen farklı bir şekilde çözer. Bunları, bize bir şeyleri hissetme ve sorunları birlikte çözme yeteneği veren vicdanlılık ve zekayı birleştirerek çözeriz.

AI, sonuçlara odaklanarak sorunları çözecek. Tipik bir örnek, sürücüsüz arabalardır. Ya tüm sonuçlar kötüyse?

Kendi kendine giden bir araba, olası tüm sonuçlardan en az kötü olanı seçecektir. Yapay zekanın "yolcu-sürücüyü" öldürecek veya kırmızı ışıkta geçen yolda iki kişiyi öldürecek bir seyir manevrası seçmesi gerekiyorsa, durumu her iki şekilde de yapabilirsiniz.

Yayaların bir hata yapmasına neden olabilirsiniz. Böylece AI ahlaki bir yargıda bulunacak ve hadi yayaları öldürelim diyecek. Veya AI, mümkün olan en az sayıda insanı öldürmeye çalışalım diyebilir. Doğru cevap yok.

Düzenlemeyle ilgili sorunlar ne olacak?

Figueroa: Yapay zekanın düzenlenmesi gerektiğini düşünüyorum. Düzenlemenin net bir değerlendirmesini yapana kadar geliştirmeyi veya yeniliği durdurmak mümkündür. Buna sahip olmayacağız. Neyi düzenlediğimizi veya düzenlemeyi nasıl uygulayacağımızı tam olarak bilmiyoruz. Bu yüzden düzenleme için yeni bir yol yaratmalıyız.

OpenAI geliştiricilerinin iyi yaptığı şeylerden biri, teknolojilerini herkesin görebileceği şekilde inşa etmektir. Geliştiriciler, teknolojileri üzerinde iki yıl daha çalışabilir ve çok daha gelişmiş bir teknoloji bulabilirler. Ancak mevcut atılımı dünyaya ifşa etmeye karar verdiler, böylece insanlar düzenleme ve buna ne tür bir düzenlemenin uygulanabileceği hakkında düşünmeye başlayabilirler.

Değerlendirme sürecini nasıl başlatırsınız?

Figueroa: Her şey iki soruyla başlar. Birincisi, düzenleme nedir? Bir otorite tarafından yapılan ve sürdürülen bir direktiftir. O zaman ikinci soru, otorite kimdir - emir verme, karar verme ve bu kararları uygulama gücüne sahip bir varlık?

Bu ilk iki soruyla ilgili bir üçüncü soru daha var: Adaylar kimler ya da neler? Bir ülkede yerelleştirilmiş hükümete veya bu durumlarda güçsüz olabilecek BM gibi ayrı ulusal birimlere sahip olabiliriz.

Sektörde öz denetime sahip olduğunuz durumlarda, gidilecek en iyi yolun bu olduğunu öne sürebilirsiniz. Ama bir sürü kötü oyuncunuz olacak. Profesyonel organizasyonlarınız olabilir ama sonra daha fazla bürokrasiye girersiniz. Bu arada, AI şaşırtıcı bir hızla hareket ediyor.

Sizce en iyi yaklaşım nedir?

Figueroa: Birlikte çalışan hükümet, endüstri, meslek kuruluşları ve belki de STK'ların bir kombinasyonu olmalı. Ama ben çok iyimser değilim ve gelmekte olan şey için yeterince iyi bir çözüm bulacaklarını düşünmüyorum.

İşletme yönergeleri aşarsa geçici güvenlik önlemleri almak için AI ve ML ile başa çıkmanın bir yolu var mı?

Figueroa: Bunu her zaman yapabilirsin. Ancak bir zorluk, bu teknolojilerin tüm potansiyel sonuçlarını tahmin edememektir.

Şu anda, sektördeki tüm büyük adamlara sahibiz - OpenAI, Microsoft, Google - daha temel teknolojiler üzerinde çalışıyor. Ayrıca, birçok AI şirketi, yaratılan teknolojiyi kullanarak başka bir soyutlama düzeyiyle çalışıyor. Ama onlar en eski varlıklardır.

Yani her istediğinizi yapacak genetik bir beyniniz var. Uygun etik ve prosedürlere sahipseniz, olumsuz etkileri azaltabilir, güvenliği artırabilir ve önyargıyı azaltabilirsiniz. Ama bunu hiçbir şekilde ortadan kaldıramazsınız. Bununla yaşamalı ve bazı sorumluluklar ve düzenlemeler oluşturmalıyız. İstenmeyen bir sonuç olursa, bunun kimin sorumluluğunda olduğu konusunda net olmalıyız. Bence bu anahtar.

AI ve ML'nin güvenli kullanımına yönelik rotayı belirlemek için şimdi ne yapılması gerekiyor?

Figueroa: Birincisi, her şeyi bilmediğimiz ve olumsuz sonuçların olacağını kabul ettiğimiz bir alt metin. Uzun vadede amaç, olumlu sonuçların olumsuzluklardan çok daha ağır basmasıdır.

Yapay zeka devriminin şu anda tahmin edilemez ama kaçınılmaz olduğunu düşünün. Düzenlemelerin yürürlüğe konulabileceğini öne sürebilirsiniz ve hızı yavaşlatmak ve mümkün olduğunca güvende olmamızı sağlamak iyi olabilir. Uzun vadeli etkilerin çok daha iyi olması ve bize çok daha iyi bir toplum sunması umuduyla bazı olumsuz sonuçlara katlanacağımızı kabul edin.
 

yapay zeka yapay zeka devrimi uretken yapay zeka