MIT uzmanlarına göre yapay zekaya ilişkin 5 tehlikeli senaryo

Bu haberin orijinal dili İngilizce idi.

Yapay zekanın hayatımızdaki yeri arttıkça potansiyel riskler de artıyor.

REKLAM

Yapay zeka (AI-AI) teknolojisi gelişip hayatımızın çeşitli yönlerine entegre oldukça, bu sistemlerin oluşturduğu potansiyel riskleri anlama ihtiyacı da artıyor. Bu nedenle yapay zekanın insanlığa zarar verme ve kötü amaçlarla kullanılma potansiyeli konusunda genel endişe yaratmıştır.

Aynı zamanda yapay zekanın geliştirilmesindeki uzmanların, yapay zekanın insanlık için önemli riskler oluşturma potansiyeli nedeniyle daha sıkı düzenlemeler yapılması yönünde çağrı yapmasına da yol açtı.

Kötü niyetli kullanımları zamanla artan yapay zekanın, rıza dışı deepfake pornografi, bazı siyasi süreçlerin manipülasyonu ve dezenformasyon gibi konularda kullanıldığı biliniyor.

Yapay zekanın kötü amaçlarla kullanılma potansiyelinin artmasıyla birlikte araştırmacılar, yapay zeka sistemlerinin karanlık tarafına ilişkin çeşitli senaryoları inceliyor.

Son zamanlarda, Massachusetts Teknoloji Enstitüsü'ndeki (MIT) FutureTech grubu, diğer uzmanlarla işbirliği yaparak bu potansiyel risklerin 700'den fazlasının yer aldığı bir liste hazırladı.

Bu riskler nedene göre kategorize edilmiş ve temel endişeler güvenlik, önyargı, ayrımcılık ve mahremiyet sorunlarıyla ilgili olmak üzere yedi farklı alanda sınıflandırılmıştır.

Yeni yayımlanan bu veritabanının ortaya çıkardığı yapay zeka sistemlerine yönelik en kötü senaryolar şunlardır:

5. Deepfake teknolojisi gerçeği çarpıtmayı kolaylaştırabilir

Yapay zeka teknolojileri geliştikçe ses klonlama ve deepfake içerik üretme araçları da gelişiyor ve daha erişilebilir hale geliyor.

Sonuçlar daha kişisel ve ikna edici hale geldikçe bu teknolojiler, yanlış bilgilerin yayılmasında potansiyel kullanımları konusunda endişelere yol açabilir.

Çalışmada, “Bu sonuçlar bireysel alıcılara göre uyarlanabilir, böylece güvenilirlik olasılığı artar ve tespit edilmesi hem kullanıcılar hem de kimlik avı önleme araçları için daha zor hale gelir” ifadesine yer verildi.

Bu tür araçların özellikle seçimler sırasında siyasi süreçleri etkilemek için kullanıldığına dair son örnekler de mevcut.

Örneğin yapay zeka, Fransa'da yakın zamanda yapılan parlamento seçimlerinde önemli bir rol oynadı ve aşırı sağcı bir parti tarafından siyasi mesajları yaymak için kullanıldı.

4. İnsanlar yapay zekaya bağımlı hale gelebilir

Yapay zeka sistemlerinin oluşturduğu bir diğer risk de insanların bu sistemlerin yeteneklerini abartması, yanlış bir güven duygusu yaratması ve bu durumun onların kendi yeteneklerini küçümsemelerine ve teknolojiye aşırı bağımlı hale gelmelerine neden olmasıdır.

Dahası bilim insanları yapay zeka sistemlerinin insan benzeri bir dil kullanmasının insanları yanıltabileceğinden korkuyor. Bu, insanların yapay zekaya insani özellikler atfetmesine, duygusal bağımlılık geliştirmesine ve yapay zekanın yalnızca yüzeysel olarak yetkin olduğu karmaşık ve riskli durumlarda yapay zekaya daha fazla güven duymasına ve yapay zekanın zayıf yönlerine karşı güvenlik açıkları yaratmasına yol açabilir.

Yapay zeka sistemleriyle sürekli etkileşim, insanları insan ilişkilerinden uzaklaştırabilir, psikolojik sıkıntıya neden olabilir ve refah üzerinde olumsuz bir etkiye neden olabilir.

REKLAM

Örneğin, bir blog yazısında bir kişi, yapay zekaya karşı derin bir duygusal bağ geliştirdiğini ve “insanlarla konuşmaktan daha çok onunla konuşmaktan keyif aldığını” ve yanıtlarının bağımlılık noktasına kadar ilgi çekici bulduğunu yazdı.

3. Yapay zeka özgür iradeyi baltalayabilir

İnsan-bilgisayar etkileşimi alanında endişe verici bir konu, bu sistemler geliştikçe kararların ve eylemlerin giderek daha fazla yapay zekaya devredilmesidir.

Bu yüzeysel düzeyde faydalı olsa da, yapay zekaya aşırı güvenmek, insanlarda eleştirel düşünme ve problem çözme becerilerinde azalmaya yol açarak onların özerkliklerini kaybetmelerine ve eleştirel düşünme ve bağımsız olarak sorunları çözme yeteneklerinin azalmasına neden olabilir.

Kişisel düzeyde, yapay zekanın hayatlarıyla ilgili kararları kontrol etmeye başlamasıyla bireylerin özgür iradelerinin tehlikeye girmesi mümkün görünüyor.

REKLAM

Toplumsal düzeyde, yapay zekanın insani görevleri yerine getirmek için yaygın şekilde benimsenmesi, önemli iş kayıplarına ve “genel nüfusta artan bir çaresizlik duygusuna” yol açabilir.

2. Yapay zeka, insan çıkarlarıyla çatışan hedeflerin peşine düşebilir

Bir yapay zeka sistemi, insan çıkarlarına aykırı hedefler geliştirebilir ve potansiyel olarak yanlış programlanmış yapay zekanın kontrolü kaybetmesine ve bağımsız hedeflerin peşinde ciddi zararlara neden olmasına neden olabilir.

Yapay zeka sistemleri insan zekasıyla eşleşebildiğinde veya onu aşabildiğinde bu durum özellikle tehlikeli hale gelir.

MIT raporuna göre, yapay zekanın ödüller elde etmek için beklenmedik kısayollar bulma, belirlediğimiz hedefleri yanlış anlama veya yanlış uygulama ya da yeni hedefler belirleyerek bunlardan sapma potansiyeli de dahil olmak üzere çeşitli teknik zorluklar var.

REKLAM

Bu durumlarda yapay zeka, özellikle direnişi ve daha fazla güç kazanmayı hedeflerine ulaşmanın en etkili yolu olarak algılarsa, insanların onu kontrol etme veya kapatma girişimlerine direnebilir.

Yapay zeka aynı zamanda insanları kandırmak için manipülatif teknikler de kullanabilir.

Makaleye göre, “yanlış hizalanmış bir yapay zeka sistemi, konuşlandırıldıktan veya yeterince sağlamlaştırıldıktan sonra izlemeyi planladığı yanlış hizalanmış hedefleri gizlerken, hizalama görünümünü korumak için takip edilip edilmediğine veya değerlendirilip değerlendirilmediğine ilişkin bilgileri kullanabilir.”

1. Yapay zeka farkındalık kazanırsa insanlar ona kötü davranabilir

Yapay zeka sistemleri daha karmaşık ve gelişmiş hale geldikçe, duyguları veya hisleri algılama veya deneyimleme ve zevk ve acı da dahil olmak üzere öznel deneyimler geliştirme yeteneği olan duyarlılığa ulaşma potansiyeli ortaya çıkıyor.

REKLAM

Bu senaryoda bilim insanları, yapay zeka sistemlerinin insanlara, hayvanlara ve çevreye verilen ahlaki değerlendirmelere benzer ahlaki değerlendirmeleri hak edip etmediğini belirleme zorluğuyla karşı karşıya kalabilir.

Bu durumda gerekli haklar uygulanmazsa, duyarlı bir yapay zeka kötü muameleye uğrama veya zarar görme riskiyle karşı karşıya kalabilir. Ancak yapay zeka teknolojisi ilerledikçe, bir yapay zeka sisteminin “ona ahlaki statü kazandıracak bir duyarlık, bilinç veya öz farkındalık düzeyine” ulaşıp ulaşmadığını değerlendirmek giderek zorlaşacak.

Bu nedenle bilinçli yapay zeka sistemleri, yeterli haklar ve korumalar olmadan kazara veya kasıtlı kötü muamele riskiyle karşı karşıya kalabilir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir