ChatGPT'nin iPhone'a gelişi gizlilik endişelerini yeniden başlatıyor

TAKİP ET

OpenAI, ChatGPT'yi tanıttığından beri, gizlilik savunucuları tüketicileri üretken yapay zeka uygulamalarının mahremiyete yönelik potansiyel tehdidi konusunda uyardı. Bir ChatGPT uygulamasının Apple App Store'a gelişi, yeni bir uyarı turunu ateşledi.

OpenAI, ChatGPT'yi tanıttığından beri, gizlilik savunucuları tüketicileri üretken yapay zeka uygulamalarının mahremiyete yönelik potansiyel tehdidi konusunda uyardı. Bir ChatGPT uygulamasının Apple App Store'a gelişi, yeni bir uyarı turunu ateşledi.

Tech Radar'dan Muskaan Saxena, "[B]uygulamaya doğrudan atlamadan önce, botla fazla kişiselleşmeye ve gizliliğinizi riske atmaya dikkat edin" dedi.

iOS uygulaması, kullanıcıların bilmesi gereken açık bir değiş tokuşla geliyor ve şu uyarı da dahil olmak üzere açıkladı: "Sistemlerimizi geliştirmek için yapay zeka eğitmenimiz tarafından anonimleştirilmiş sohbetler incelenebilir."

Anonimleştirme, yine de mahremiyete giden bir bilet değildir. Anonimleştirilmiş sohbetler, onları belirli kullanıcılara bağlayabilen bilgilerden arındırılır. Platform.sh gizlilik ve güvenlikten sorumlu başkan yardımcısı Joey Stanford, "Ancak anonimleştirme, tüketici gizliliğini korumak için yeterli bir önlem olmayabilir çünkü anonimleştirilmiş veriler, diğer bilgi kaynaklarıyla birleştirilerek yeniden tanımlanabilir." TechNewsWorld'e verdiği demeçte, Paris merkezli geliştiriciler için bulut tabanlı bir hizmet platformu.

Mozilla'nın Gizlilik Dahil Değil projesinin baş araştırmacısı Jen Caltrider, "Özellikle konum bilgisi kullanılıyorsa, bilgilerin anonimleştirilmesinin nispeten kolay olduğu bulundu" dedi.

TechNewsWorld'e "Genel olarak OpenAI, konum verilerini toplamadığını söylüyor, ancak ChatGPT için gizlilik politikası, bu verileri toplayabileceklerini söylüyor" dedi.

Yine de OpenAI, ChatGPT uygulamasının kullanıcılarını bilgilerinin büyük dil modelini eğitmek için kullanılacağı konusunda uyarıyor. “Bu konuda dürüstler. Hiçbir şey saklamıyorlar," dedi Caltrider.

Gizliliği Ciddiye Almak

Washington, D.C.'deki bir ulusal güvenlik ve savunma düşünce kuruluşu olan New American Security Merkezi'nde araştırma görevlisi olan Caleb Withers, bir kullanıcının bir ChatGPT sorgusuna adını, iş yerini ve diğer kişisel bilgilerini girmesi durumunda bu verilerin anonim olmayacak.

TechNewsWorld'e "Kendinize, 'Bu bir OpenAI çalışanına söyleyeceğim bir şey mi?' diye sormalısınız" dedi.

San Jose, Kaliforniya'daki SmartTech Research'ün başkanı ve baş analisti Mark N. Vena, OpenAI'nin gizliliği ciddiye aldığını ve kullanıcı verilerini korumak için önlemler uyguladığını belirtti.

TechNewsWorld'e "Ancak, verilerinizin nasıl işlendiğini ve hangi korumaların yürürlükte olduğunu anlamak için kullandığınız herhangi bir hizmetin belirli gizlilik politikalarını ve uygulamalarını gözden geçirmek her zaman iyi bir fikirdir" dedi.

Clearwater, Fla'da bir güvenlik farkındalığı eğitim sağlayıcısı olan KnowBe4'te güvenlik bilinci savunucusu James McQuiggan, bir kuruluş olarak veri güvenliğine adanmış olabileceği gibi, kötü niyetli aktörler tarafından yararlanılabilecek güvenlik açıkları olabilir.

TechNewsWorld'e "Verilerinizin olabildiğince güvenli olmasını sağlamak için dikkatli olmak ve hassas bilgileri paylaşmanın gerekliliğini düşünmek her zaman önemlidir" dedi.

"Gizliliğinizi korumak, kullanıcılar ve verilerini toplayan ve kullanan şirketler arasında paylaşılan bir sorumluluktur ve bu, uzun ve genellikle okunmamış Son Kullanıcı Lisans Sözleşmelerinde belgelenmiştir" diye ekledi.

Yerleşik Korumalar

McQuiggan, üretici yapay zeka uygulamalarının kullanıcılarının sorgularına doğum günleri, telefon numaraları, posta ve e-posta adresleri gibi hassas bilgiler eklediklerinin bilindiğini belirtti. "Yapay zeka sistemi yeterince güvenli değilse, üçüncü taraflarca erişilebilir ve kimlik hırsızlığı veya hedefli reklamcılık gibi kötü amaçlar için kullanılabilir" dedi.

Üretken yapay zeka uygulamalarının, oluşturdukları içerik aracılığıyla kullanıcılar hakkındaki hassas bilgileri istemeden açığa çıkarabileceğini de sözlerine ekledi. "Bu nedenle," diye devam etti, "kullanıcılar üretken AI uygulamalarını kullanmanın potansiyel gizlilik risklerini bilmeli ve kişisel bilgilerini korumak için gerekli adımları atmalıdır."

Masaüstü ve dizüstü bilgisayarların aksine cep telefonlarında, üzerinde çalışan uygulamaların gizlilik ihlallerini engelleyebilecek bazı yerleşik güvenlik özellikleri bulunur.

Bununla birlikte, McQuiggan'ın işaret ettiği gibi, "Uygulama izinleri ve gizlilik ayarları gibi bazı önlemler bir düzeyde koruma sağlasa da, kişisel bilgilerinizi akıllı telefona yüklenen herhangi bir uygulamada olduğu gibi her tür gizlilik tehdidine karşı tam olarak koruyamayabilir. ”

Vena, uygulama izinleri, gizlilik ayarları ve uygulama mağazası düzenlemeleri gibi yerleşik önlemlerin bir düzeyde koruma sağladığını kabul etti. "Ancak tüm gizlilik tehditlerini azaltmak için yeterli olmayabilirler" dedi. "Uygulama geliştiricileri ve akıllı telefon üreticilerinin gizliliğe farklı yaklaşımları var ve tüm uygulamalar en iyi uygulamalara bağlı kalmıyor."

OpenAI'nin uygulamaları bile masaüstünden cep telefonuna değişir. "Web sitesinde ChatGPT kullanıyorsanız, veri kontrollerine gidebilir ve ChatGPT'yi geliştirmek için kullanılan sohbetinizi devre dışı bırakabilirsiniz. Bu ayar iOS uygulamasında yok, ”diye belirtti Caltrider.

App Store Gizlilik Bilgilerine Dikkat Edin

Caltrider, OpenAI'nin iOS uygulaması tarafından kullanılan izinleri de biraz belirsiz bulduğunu belirterek, "Google Play Store'da hangi izinlerin kullanıldığını kontrol edebilir ve görebilirsiniz. Bunu Apple App Store aracılığıyla yapamazsınız.”

Kullanıcıları, uygulama mağazalarında bulunan gizlilik bilgilerine bağlı kalmaları konusunda uyardı. "Google Play Store güvenlik bilgileriyle ilgili yaptığımız araştırma, bunun gerçekten güvenilmez olduğunu gösteriyor" dedi.

"Başkaları tarafından Apple App Store'da yapılan araştırma, bunun da güvenilmez olduğunu gösteriyor," diye devam etti. "Kullanıcılar, uygulama sayfalarında buldukları veri güvenliği bilgilerine güvenmemeli. Zor ve ustalık isteyen kendi araştırmalarını yapmalılar.”

"Şirketlerin, topladıkları ve paylaştıklarıyla ilgili dürüst olmak konusunda daha iyi olmaları gerekiyor" diye ekledi. "OpenAI, ChatGPT'yi eğitmek için topladıkları verileri nasıl kullanacakları konusunda dürüst, ancak verileri anonimleştirdikten sonra gizlilik politikasındaki standartların ötesine geçen birçok şekilde kullanabileceklerini söylüyorlar."

Stanford, Apple'ın üretken AI uygulamalarının neden olduğu bazı gizlilik tehditlerini ele alabilecek bazı politikaları olduğunu belirtti. Onlar içerir:
Üretken yapay zeka teknolojilerini kullanan uygulamalar tarafından veri toplama ve paylaşma için kullanıcı onayının zorunlu kılınması;

Kullanıcıların uygulamalar arası izlemeyi devre dışı bırakmasına olanak tanıyan AppTracking Şeffaflık özelliği aracılığıyla verilerin nasıl ve kim tarafından kullanıldığı konusunda şeffaflık ve kontrol sağlama;

App Store inceleme süreci aracılığıyla uygulama geliştiricileri için gizlilik standartlarını ve düzenlemelerini uygulamak ve bunları ihlal eden uygulamaları reddetmek.

Ancak, "Bu önlemler, üretken yapay zeka uygulamalarının, kullanıcıların gizliliğini ve güvenliğini etkileyebilecek uygunsuz, zararlı veya yanıltıcı içerik oluşturmasını engellemek için yeterli olmayabilir."

Federal AI Gizlilik Yasası Çağrısı

“OpenAI sadece bir şirket. Büyük dil modelleri oluşturan birkaç model var ve yakın gelecekte birçoğunun ortaya çıkması muhtemel" dedi. kamu politikası, Washington, D.C.

TechNewsWorld'e "Tüm şirketlerin bir dizi açık standarda uymasını sağlamak için bir federal veri gizliliği yasamız olması gerekiyor" dedi.

Caltrider, "Yapay zekanın hızlı büyümesi ve yaygınlaşmasıyla birlikte, bu büyüdükçe ve daha yaygın hale geldikçe, geri kalanımıza göz kulak olmak için kesinlikle sağlam, güçlü bekçiler ve düzenlemeler olması gerekiyor."
 

TechNewsWorld Caltrider App Store OpenAI ChatGPT