Yapay zekanın kamu yönetimi için Microsoft'un 5 noktalı planının önemi

TAKİP ET

Birçok teknoloji lideri, AI'nın insanlar için son derece faydalı olabileceği gibi, kötüye kullanılabileceği veya ihmal nedeniyle insanlığa ölümcül zarar verebileceği konusunda hemfikirdir. Ancak hükümetlerin bu sorunu rehberlik etmeden ele almasını beklemek aptallık olur, çünkü politikacılar bırakın piyasaya yeni çıkmış bir şeyi, yıllarca kullandıkları teknolojiyi çoğu zaman anlamazlar bile.

Birçok teknoloji lideri, AI'nın insanlar için son derece faydalı olabileceği gibi, kötüye kullanılabileceği veya ihmal nedeniyle insanlığa ölümcül zarar verebileceği konusunda hemfikirdir. Ancak hükümetlerin bu sorunu rehberlik etmeden ele almasını beklemek aptallık olur, çünkü politikacılar bırakın piyasaya yeni çıkmış bir şeyi, yıllarca kullandıkları teknolojiyi çoğu zaman anlamazlar bile.

Sonuç olarak, hükümetler bir sorunu hafifletmek için harekete geçtiklerinde yarardan çok zarar verebilirler. Örneğin, eski Shell Oil Company'yi suiistimaller nedeniyle cezalandırmak doğruydu, ancak şirketin parçalanması petrolün kontrolünü ABD'den dünyanın ABD'ye o kadar da dost olmayan bölgelerine kaydırdı. pazarı ABD'den Japonya'ya kaydıran tüketici elektroniği.

ABD, teknoloji liderliğini dişlerinin arasına aldı, ancak hükümetin yapay zekayı düzenlemek için rehberlik etmeden hareket etmesi durumunda, fırsatı basitçe Çin'e kaydıracaklarına dair aklımda hiçbir şüphe yok. Bu nedenle Microsoft'un "Governing AI: A Blueprint for the Future" başlıklı yakın tarihli raporu çok önemlidir.

Haber siteleri içerik için yapay zekaya dönüyor

Microsoft raporu sorunu tanımlıyor, ABD'nin rekabet gücünü azaltmayacak makul bir yolun ana hatlarını çiziyor ve yapay zekayı çevreleyen endişeleri ele alıyor.

Microsoft'un AI yönetişim planı hakkında konuşalım ve genellikle bulmakta zorlandığımız şeyleri takip etmemize yardımcı olabilecek yeni bir izleyici serisi olan Haftanın Ürünü ile bitirelim.

Bağlam olmadan düzenleme istemek aptalca. Hükümetler, hakkında çok az şey bildikleri bir şeye taktik olarak tepki verdiğinde, yarardan çok zarar verebilir. Birkaç antitröst örneğiyle başladım, ancak bunun belki de en çirkin örneği Eşit İstihdam Fırsatı Komisyonu'ydu (EEOC).

Kongre, işlerde çok gerçek ırk ayrımcılığı sorununu hızla çözmek için 1964'te EEOC'yi yarattı. İşyeri ayrımcılığının iki temel nedeni vardı. En bariz olanı, işyerinde EEOC'nin ele alabildiği ve ele aldığı ırk ayrımcılığıydı. Ancak konu eğitimde ayrımcılığa geldiğinde, EEOC'nin ele almadığı daha da büyük bir sorun vardı.

İşletmeler kalifikasyona göre işe aldığında ve çalışanları bilimsel pozisyonlarla, eğitim ve başarıya dayalı yükseltmelerle ve terfilerle ödüllendirmek için o dönemde endüstrinin geliştirdiği metodolojilerden herhangi birini kullandığında, şirket çeşitliliğinizi geliştirmek için bu programlara son vermeniz istendi. deneyimsiz azınlıkları işlere sokmak.

Google, yapay zeka Chatbot Bard'ı test etmeye halkı davet ediyor

Deneyimsiz azınlıkları iyi eğitilmedikleri işlere yerleştirerek, sistem onları başarısız olmaya ayarladı; akıl hocalığı Bu durum sadece beyaz olmayan insanlar için değil, renk gözetmeksizin kadınlar için de geçerliydi.

Şimdi geriye bakıp EEOC'nin gerçekten hiçbir şeyi düzeltmediğini görebiliriz, ancak İK'yı çalışanların bakımına ve beslenmesine odaklanan bir kuruluştan, çoğu zaman çalışan sorunlarının üstünü örtmek anlamına gelen, uyumluluğa odaklanan bir kuruluşa dönüştürdü. sorunları ele almaktan daha

Brad Smith Yükseliyor

Microsoft Başkanı Brad Smith, geniş kapsamlı düşünen birkaç teknoloji liderinden biri olarak beni etkiledi. Stratejik sorunlara neredeyse tamamen taktiksel tepkiler üzerinde odaklanmak yerine, stratejik olarak düşünür.

Microsoft taslağı buna bir örnektir çünkü çoğu başka uzun vadeli sorunlara yol açabilecek "bir şeyler yapmalısın" diyerek hükümete giderken, Smith bir çözümün nasıl olması gerektiğini düşündüğünü ortaya koydu ve ete kemiğe büründü. beş noktalı bir planda zarif bir şekilde ortaya çıkıyor.

Üretken yapay zeka ve sonraki bilgisayarlara ihtiyacımız olacak

"Bilgisayarların ne yapabileceğini sorma, ne yapmaları gerektiğini sor" gibi kışkırtıcı bir ifadeyle açılıyor, bu da bana biraz John F. Kennedy'nin ünlü sözünü hatırlatıyor: "Ülkenin senin için ne yapabileceğini sorma; ülken için ne yapabileceğini sor.” Smith'in ifadesi, 2019'da birlikte yazdığı ve bu neslin belirleyici sorularından biri olarak anılan bir kitaptan geliyor.

Bu ifade, insanları korumanın önemini ve gerekliliğini bağlamına oturtmakta ve yeni teknolojinin kullanımlarının zararlı değil, faydalı olmasını sağlamak için sonuçları hakkında düşünmemizi sağlamaktadır.

Smith, teknolojiyi yalnızca maliyetleri azaltmak ve gelirleri artırmak için değil, insanlık durumunu iyileştirmek için nasıl bir öncelik olarak kullanmamız gerektiği hakkında konuşmaya devam ediyor. Benzer bir çaba sarf eden IBM gibi, Smith ve Microsoft da teknolojinin insanları değiştirmek için değil, daha iyi hale getirmek için kullanılması gerektiğine inanıyor.

Ayrıca, ki bu bugünlerde çok nadir oluyor, teknolojinin gelecekte nerede olması gerektiğini tahmin etme ihtiyacından bahsediyor, böylece sorunlara sürekli ve taktiksel olarak yanıt vermek yerine sorunları önceden tahmin edebiliyoruz. Şeffaflık, hesap verebilirlik ve teknolojinin yasal olarak kullanıldığına dair güvence ihtiyacı, bu çaba için kritik öneme sahiptir ve iyi bir şekilde dile getirilmiştir.

5 Noktalı Plan Analizi

Smith'in ilk noktası, devlet liderliğindeki yapay zeka güvenlik çerçevelerini uygulamak ve üzerine inşa etmektir. Çoğu zaman hükümetler, bir sorunu çözmek için gereken araçlardan bazılarına zaten sahip olduklarının farkına varmazlar ve tekerleği etkin bir şekilde yeniden icat etmek için çok zaman harcarlar.

Tarım arazilerinde kullanılacak yapay zekâ destekli sürü İHA'lar üretildi

ABD Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) tarafından bir AI Risk Yönetimi Çerçevesi (AI RMF) şeklinde etkileyici çalışmalar yapılmıştır. Eksik olmasına rağmen iyi bir çerçevedir. Smith'in ilk noktası, bunu kullanmak ve üzerine inşa etmektir.

Smith'in ikinci noktası, kritik altyapıyı kontrol eden yapay zeka sistemleri için etkili güvenlik frenleri gerektirmesidir. Kritik altyapıyı kontrol eden bir yapay zeka kontrolden çıkarsa, çok büyük zarara ve hatta önemli ölçekte ölüme neden olabilir.

Yapay zekanın devreye girip durumu daha da kötüleştirmeyeceğinden emin olmak için bu sistemlerin kapsamlı testlerden geçmesini, derin insan gözetimine sahip olmasını ve yalnızca olası değil, olası olmayan sorunların senaryolarına karşı test edilmesini sağlamalıyız.

Hükümet, korkuluklara ihtiyaç duyacak sistem sınıflarını tanımlayacak, bu koruyucu önlemlerin doğası hakkında talimat verecek ve ilgili sistemlerin, yalnızca bu tür kullanım için test edilmiş ve lisanslanmış veri merkezlerinde konuşlandırılmak gibi belirli güvenlik gereksinimlerini karşılamasını gerektirecektir.

Musk, Yapay Zeka Böceği tarafından ısırılmış görünüyor

Smith'in üçüncü noktası, yapay zeka için teknoloji mimarisine dayalı geniş bir yasal ve düzenleyici çerçeve geliştirmektir. AI'lar hata yapacak. İnsanlar, doğru olsalar bile bir yapay zekanın verdiği kararlardan hoşlanmayabilir ve insanlar, yapay zekanın üzerinde kontrol sahibi olmadığı şeyler için yapay zekayı suçlayabilir.

Kısacası, çok fazla dava olacak. Sorumluluğu kapsayan yasal bir çerçeve olmadığında, kararların çeşitli ve çelişkili olması muhtemeldir, bu da sonuçta ortaya çıkan herhangi bir çözüm yolunu zor ve ulaşılması çok pahalı hale getirir.

Bu nedenle, insanların gelecekteki sorunlardan kaçınmak için sorumluluklarını, risklerini ve haklarını anlamaları ve bir sorunla sonuçlanması durumunda daha hızlı ve geçerli bir çare bulmaları için yasal bir çerçeveye ihtiyaç vardır. Bu tek başına, yasal emsal söz konusu olduğunda AI hemen hemen yeşil alanda olduğundan, muhtemelen büyük bir dava yükü haline gelecek şeyi azaltabilir.

Smith'in dördüncü noktası, şeffaflığı teşvik etmek ve yapay zekaya akademik ve kar amacı gütmeyen kuruluşların erişimini sağlamaktır. Bu sadece mantıklı; tam olarak anlayamadığın bir şeye nasıl güvenebilirsin? İnsanlar bugün yapay zekaya güvenmiyor ve şeffaflık olmadan yarın da güvenmeyecekler. Aslında, şeffaflık olmadan yapay zekaya güvenmemelisiniz çünkü onun niyet ettiğiniz şeyi yapacağını doğrulayamazsınız.

Ayrıca, insanların işgücüne girerken bu teknolojiyi nasıl doğru bir şekilde kullanacaklarını anlamalarını sağlamak için yapay zekaya akademik erişime ve kar amacı gütmeyen kuruluşların, özellikle de insanlık durumunu iyileştirmeye odaklananların, iyi işleri için bu teknolojiye etkili erişime sahip olmalarını sağlamak için kar amacı gütmeyen erişime ihtiyacımız var.

Smith'in beşinci noktası, ortaya çıkacak kaçınılmaz toplumsal zorlukları ele almak için yapay zekayı etkili bir araç olarak kullanmak için yeni kamu-özel sektör ortaklıklarını sürdürmektir. Yapay zekanın toplum üzerinde büyük bir etkisi olacak ve bu etkinin zararlı değil faydalı olmasını sağlamak, odaklanma ve gözetim gerektirecektir.

AI'nın bir kılıç olabileceğine, ancak gezegendeki mevcut herhangi bir kılıçtan potansiyel olarak daha güçlü bir kalkan olarak da etkili bir şekilde kullanılabileceğine dikkat çekiyor. Her yerde demokrasiyi ve insanların temel haklarını korumak için kullanılmalıdır.

Smith, Ukrayna'yı kamu ve özel sektörün güçlü bir savunma oluşturmak için etkili bir şekilde bir araya geldiği bir örnek olarak gösteriyor. O da benim gibi, yapay zekanın dünyanın daha iyi bir yarına taşınmasına yardımcı olma potansiyeline ulaşmasını sağlamak için Ukrayna örneğini taklit etmemiz gerektiğine inanıyor.

Sonuç: Daha İyi Bir Yarın

Microsoft sadece hükümete gidip hükümetlerin henüz tam olarak anlamadığı bir sorunu çözmek için harekete geçmesini istemiyor.

Üretken yapay zeka e-posta tehditleriyle mücadele etmek için ne yapılmalı?


Yapay zeka kullanımını çevreleyen riskleri önceden azaltmamızı ve sorunlar olduğunda bunları ele almak için önceden var olan araçlar ve çözümlerin bulunmasını sağlamak için bu çözümün neye benzemesi gerektiğine ve açıkçası olması gerektiğine dair bir çerçeve ortaya koyuyor. en önemlisi, raydan çıkan bir AI programının zarif bir şekilde sonlandırılmasına izin veren bir acil durum kapatma anahtarıdır.

İster şirket ister birey olun, Microsoft burada liderliğin bir sorunu yalnızca hükümete atıp düzeltmelerini istemekle kalmayıp, nasıl ele alacağı konusunda mükemmel bir ders veriyor. Microsoft, sorunun ana hatlarını çizdi ve düzeltmenin sorunun ilk etapta olduğundan daha büyük bir sorun haline gelmemesi için iyi düşünülmüş bir çözüm sağladı.

Çakıl Arısı İzleyicileri

Çoğu insan gibi, karım ve ben de sık sık bir şeyleri yanlış yerleştiririz ki bu en çok evden çıkmak için acele ettiğimizde ve bir şeyi nereye koyduğumuzu düşünmeden yere koyduğumuzda oluyor.

Ayrıca üç kedimiz var, yani veteriner onlara bakmak için bizi düzenli olarak ziyaret ediyor. Kedilerimizden birkaçı, tırnaklarının kesilmesini veya paspaslarının kesilmesini önlemek için saklanacakları benzersiz ve yaratıcı yerler keşfetmiştir. Bu yüzden Tile ve AirTags gibi izleyicileri kullanıyoruz.

Ancak AirTag'lerle ilgili sorun şu ki, yalnızca bir iPhone'unuz varsa gerçekten çalışıyorlar, karım gibi, bu da onun bir şeyleri izleyebileceği anlamına geliyor ama benim bir Android telefonum olduğu için benim yapamıyorum. Fayans ile, ya pil bittiğinde cihazı değiştirmeniz ya da pili değiştirmeniz gerekir ki bu bir acıdır. Bu nedenle, çoğu zaman, bir şey bulmamız gerektiğinde pil biter.

Pebblebee, diğer cihazlar gibi çalışır, ancak şarj edilebilir olması ve hem iOS hem de Android'de çalışan Pebblebee'nin uygulamasıyla çalışabilmesi nedeniyle öne çıkar. Veya şu işletim sistemlerindeki yerel uygulamalarla çalışır: Apple Find My ve Google Find My Device. Ne yazık ki, ikisini aynı anda yapmayacak, ama en azından bir seçeneğiniz var.
Bir izleme cihazının yerini bulmaya çalışırken, bip sesi çıkarır ve yanar, geceleri bulmayı kolaylaştırır ve kötü bir Marco Polo oyununa benzemez (keşke bunu duman dedektörleri yapsaydı).

Pebblebee hem Apple hem de Android ile çalıştığı ve pilleri şarj edebileceğiniz için, kişisel bir ihtiyaca Tile veya Apple'ın AirTag'inden daha iyi hitap ediyor ve bu benim Haftanın Ürünü.
 

yapay zeka microsoft google yapay zeka uretken yapay zeka