Yapay zeka ve kişisel paylaşımlar: Duygusal destek mi, risk mi?
Teknolojinin hızla gelişmesiyle, ChatGPT gibi yapay zeka araçları, kişisel ve duygusal paylaşımlar için bir alternatif haline geldi. Ancak uzmanlar, bu tür paylaşımların güvenlik riskleri ve etik sorunlar doğurabileceği konusunda uyarıyor.
Teknoloji ilerledikçe, giderek daha fazla insan yapak zekayı yalnızca dijital bir araç olarak değil, bir tür sanal psikolog ya da sırdaş olarak görmeye başlıyor. Ancak, uzmanlar, yapay zekâ ile kişisel deneyimlerin ve samimi hikayelerin paylaşılmasının riskli olabileceği konusunda uyarıyor.
VERİ GÜVENLİĞİ VE KİŞİSEL BİLGİLERİN RİSKLERİ
Yapay zekaya girilen verilerin, model eğitimi için kullanılabileceği ve bu verilerin geleceği hakkında belirsizliklerin bulunduğu vurgulanıyor. Birçok kişi, yapay zekâdan bu tür amaçlarla kullanmanın etik ve pratik riskleri üzerine düşünmüyor. Özellikle dikkat çeken bir diğer konu ise, filtreler ve algoritmaların arkasında gerçek insan emeği olduğu, bu emeğin çoğu zaman düşük ücretli ve travmatik olduğu.
Örneğin, Kenyalı çalışanlar, dil modellerinin performansını iyileştirmek için şiddet, ayrımcılık ve zalimlikle ilgili şok edici içerikleri manuel olarak işlemek zorunda kaldılar.
Oxford Üniversitesi profesörü Michael Wooldridge, yapay zekanın merhamet veya anlayış kapasitesine sahip olmadığını belirtti. "Onun hiçbir insan deneyimi, acısı ya da neşesi yok. Amacı yalnızca uygun yanıtlar üretmektir" diyen Wooldridge, yapay zekânın sunduğu duygusal desteğin orijinallik, dikkat ve empati eksikliği taşıdığını vurguladı.
YAPAY ZEKA VE DUYGUSAL DESTEK
Bunun yanı sıra, yapay zekâ kullanımıyla en önemli tehlikelerden biri de kişisel verilerin sızma riski. Örneğin, 2023'te İtalya, kişisel verilerin işlenmesiyle ilgili ihlaller nedeniyle yapay zekanın ülke sınırları içindeki faaliyetlerini geçici olarak durdurdu. Düzenleyiciler, hizmetin kullanıcı diyaloglarını ve ödeme bilgilerini izinsiz topladığını ve bunları sistemi geliştirmek için kullandığını belirledi.
YAŞ SINIRLAMALARINA DİKKAT EDİLMİYOR
Ayrıca, yapay zeka, resmi olarak 13-18 yaş arası çocuklar için ebeveyn onayı gerektirse de, pratikte gençlerin bu sınırlamaları kolayca aşabildikleri görülüyor. Bu durum, çocukların yalnızca eksik değil, aynı zamanda yaş ve olgunluk seviyelerine uygun olmayan, zararlı olabilecek yanıtlara da erişim sağlamalarına neden olabiliyor.
Profesör Wooldridge, "Yapay zekâ ile yaptığınız her konuşma potansiyel olarak saklanabilir, işlenebilir ve gelecekte kullanılabilir. Bu nedenle kişisel meseleleri tartışmak, patronunuz hakkında şikayette bulunmak ya da yapay zekâ ile siyasi görüşlerinizi paylaşmak son derece dikkatsizce bir hareket olur" şeklinde uyarıyor.
BAĞIMSIZ DÜŞÜNME BECERİLERİNİN ZAYIFLAMASI
Massachusetts Teknoloji Enstitüsü'ndeki araştırmacıların yaptığı bir çalışma, yapay zekâya sıkça başvurmanın, bireylerin bilgiyi bağımsız bir şekilde analiz etme ve eleştirel düşünme becerilerini zayıflatabileceğini doğruluyor. Hayatımızı kolaylaştırmakla birlikte, dikkat, hafıza ve mantıklı düşünme gibi önemli bilişsel becerilerin kaybolma riskiyle karşı karşıya kalabiliyoruz.
Sonuç olarak, rahatlık ve geniş imkanlar sunsa da, yapay zekâ insan etkileşiminin, psikologların veya güvenilir dostların yerini almamalıdır. Kişisel alan, duygusal güvenlik ve sağlıklı düşünce, özellikle güçlü bir teknoloji olan yapay zekâ kullanırken, en önemli ilkeler olmalıdır.