Yapay zeka uzmanları bile yakınlarına yapay zekadan uzak durmalarını tavsiye ediyor
Halktv sayfasından alınan bilgilere göre, Ankara24.com açıklama yapıyor.
Krista Pawloski, yapay zeka kullanımına dair güçlü bakış açısını şekillendiren o belirleyici anı hatırlıyor. Yapay zeka şirketi Amazon Mechanical Turk'te (şirketlerin veri girişi veya bir yapay zeka komutunu çıktısıyla eşleştirme gibi görevleri yerine getirmeleri için çalışanları işe almalarına olanak tanıyan bir platform) çalışan Pawloski, zamanını yapay zeka tarafından oluşturulan metin, resim ve videoların kalitesini denetleyip değerlendirerek ve ayrıca gerçekleri kontrol ederek geçiriyor.
Yaklaşık iki yıl önce, evinden yemek masasında çalışırken, tweet'lerin ırkçı unsurlar içerip içermediğini belirlemekle görevlendirilmişti. Sonra karşısına "cırcır böceğinin şarkısını dinleyin" yazan bir tweet çıktı. Pawloski "hayır" butonuna uzandı, ancak sonra " cırcır böceği"nin ne olduğunu araştırmaya karar verdi. Şaşırtıcı bir şekilde, bunun Afrikalı Amerikalılar için kullanılan uydurma bir hakaret olduğunu öğrendi.
Pawloski , "Orada oturdum ve aynı hatayı kaç kez yapmış olabileceğimi ve [ ırkçı unsurları ] fark etmemiş olabileceğimi düşündüm " diyor.
HAKARETLERLE UZLAŞMA MI?Kendi hatalarının ve onun gibi binlerce diğer çalışanın hatalarının potansiyel boyutu akıl almaz. Kaç kişi bilmeden benzer hataları gözden kaçırdı? Ya bunları çözdülerse?
Yapay zeka modellerinin iç işleyişine yıllarca tanıklık eden Pavloski, artık kişisel olarak üretken yapay zekayı kullanmamaya karar verdi ve ailesine de bunlardan uzak durmalarını söylüyor.

"Bu benim evimde kesinlikle kabul edilemez," diyor Pawloski. Ergenlik çağındaki kızının ChatGPT gibi araçları kullanmasına izin vermiyor. Ayrıca, özel hayatlarında tanıştığı kişilere yapay zekaya çok aşina oldukları bir şey sormalarını tavsiye ediyor, böylece hatalarını görebilir ve teknolojinin ne kadar yanlış olduğunu kendi gözleriyle görebilirler.
Pavloski, Mechanical Turk web sitesinde seçim yapabileceği yeni görevlerden oluşan bir menü gördüğünde, yaptığı şeyin insanlara zarar vermek için kullanılıp kullanılamayacağını merak ettiğini ve çoğu zaman cevabın "evet" olduğunu söylüyor.
Amazon yaptığı açıklamada, çalışanların hangi görevleri üstleneceklerini kendi takdirlerine göre seçebileceklerini ve kabul edip etmemeye karar vermeden önce her görevin ayrıntılarını inceleyebileceklerini belirtti. Şirkete göre, başvuranlar her görevin zaman, ücret ve eğitim seviyeleri gibi ayrıntılarını kendileri belirliyor.
Amazon sözcüsü Montana McLachlan, "Amazon Mechanical Turk, 'talep edenler' olarak adlandırılan işletmeleri ve araştırmacıları, görselleri etiketleme, anketleri yanıtlama, metinleri yazıya dökme veya yapay zeka çalışmalarının sonuçlarını inceleme gibi çevrimiçi görevleri yerine getirmek üzere çalışanlarla buluşturan bir borsadır" dedi.
PAWLOSKİ YALNIZ DEĞİLBir düzine yapay zeka değerlendiricisi (AI yanıtlarının doğruluğunu ve geçerliliğini kontrol eden kişiler), sohbet robotlarının ve görüntü oluşturucuların nasıl çalıştığını ve sonuçlarının ne kadar hatalı olabileceğini fark ettikten sonra, arkadaşlarını ve ailelerini üretken yapay zekayı hiç kullanmamaları konusunda teşvik etmeye başladıklarını veya en azından sevdiklerini onu nasıl dikkatli kullanacakları konusunda eğitmeye çalıştıklarını söylüyor.

Yapay zeka değerlendiricisi olarak çalışan bir başka kadın, yapay zekayı mümkün olduğunca az kullanmaya çalıştığını , hatta hiç kullanmadığını söylüyor. Kararını, yapay zekanın sağlık sorularına verdiği yanıtlardan almış. Bu, onu çok derin düşünmeye sevk etmiş.
Kimliğini açıklamayan kadın, meslektaşlarının tıbbi sorulara verilen yapay zeka tarafından üretilen cevapları hiçbir eleştirel yaklaşım sergilemeden değerlendirdiklerini gözlemlediğini ve tıp eğitimi olmamasına rağmen bu tür soruları değerlendirmekle görevlendirildiğini söyledi.
Sinirlenen anne, 10 yaşındaki kızının sohbet robotlarını kullanmasını yasakladı. Değerlendirici, "Öncelikle eleştirel düşünme becerisine sahip olması gerekiyor, aksi takdirde sonucun iyi olup olmadığına karar veremez" diyor.
BOT GÖZLEMCİLERİ ALARMI ÇALIYORSöz konusu kişiler, sohbet robotlarının daha insancıl görünmesini sağlayan on binlerce çalışandan oluşan küresel bir iş gücünün parçasıdır. Yapay zeka yanıtlarını incelerken , sohbet robotunun yanlış veya zararlı bilgiler sağlamadığından emin olmak için de çalışırlar.

Ancak yapay zekayı geliştiren kişiler ona en az güvenenler olduğunda, uzmanlar bunun çok daha büyük bir sorunun işareti olduğuna inanıyor.
Poynter'da bir medya okuryazarlığı programı olan MediaWise'ın direktörü Alex Mahadevan, "Bu, yavaş ve dikkatli doğrulamadan ziyade büyük ölçekte dağıtım ve yerleştirme için muhtemelen teşvikler olduğunu ve değerlendiricilerin sağladığı geri bildirimlerin göz ardı edildiğini gösteriyor" diyor.
Ona göre, her chatbot'un çalışan her sürümü binlerce hata veriyor ve iddialarından emin olamıyoruz. "Bu durum, haber ve bilgi için giderek daha fazla LLM'ye yönelen kitle için iyiye işaret değil"
Yapay zeka çalışanları, kaliteden ödün verilerek hızlı teslimat sürelerine sürekli vurgu yapılması nedeniyle üzerinde çalıştıkları modellere güvenmiyor. Amazon Mechanical Turk'te yapay zeka çalışanı olan Brooke Hansen, üretken yapay zekaya veya bu araçları geliştirip dağıtan şirketlere bir kavram olarak güvenmediğini söylüyor. Ona göre en büyük dönüm noktası, yapay zeka sistemlerini eğiten kişilerin ne kadar az destek aldığını fark etmek oldu.
"Modeli geliştirmemize yardımcı olmamız bekleniyor. Ancak bize genellikle belirsiz veya eksik talimatlar veriliyor. Görevleri tamamlamak için asgari düzeyde eğitim ve gerçekçi olmayan son tarihler alıyoruz" diyor 2010'dan beri verilerle çalışan ve Silikon Vadisi'ndeki en popüler yapay zeka modellerinden bazılarının eğitiminde yer alan Hansen.
"Çalışanlar ihtiyaç duydukları bilgi, kaynak ve zamanla donatılmazsa, sonuçlar nasıl güvenli, doğru veya etik olabilir? Bana göre, yapmamız beklenen iş ile bize verilen kaynaklar arasındaki bu uçurum, şirketlerin sorumluluk ve kalite yerine hız ve kâra öncelik verdiğinin açık bir işareti" diyor.
Uzmanlar, kolayca ulaşılamayan bir soruya cevap vermemek yerine, kendinden emin bir üslupla yanlış bilgi yaymanın, üretken yapay zekanın en büyük kusuru olduğunu söylüyor.
Medya okuryazarlığı alanında faaliyet gösteren kâr amacı gütmeyen kuruluş NewsGuard tarafından yürütülen, ChatGPT, Gemini ve Meta'nın yapay zekası da dahil olmak üzere en iyi 10 üretken yapay zeka modelinin denetimi, yanıt vermeyen sohbet robotlarının oranının Ağustos 2024'te %31'den Ağustos 2025'te %0'a düştüğünü ortaya koydu.
NewsGuard'a göre, aynı zamanda sohbet robotlarının yanlış bilgileri tekrarlama olasılığı %18'den %35'e neredeyse iki katına çıktı. Şu anda hiçbir şirket NewsGuard'ın yorum talebine yanıt vermedi.
Gizlilik anlaşması gereği isminin açıklanmaması koşuluyla konuşan bir başka yapay zeka değerlendiricisi, "[Botun] sunduğu hiçbir bilgiye kendim kontrol etmeden güvenmem; güvenilir değil" diyor. Ayrıca insanları sohbet robotlarına güvenmemeleri konusunda uyarıyor.
Bir diğer değerlendirici ise doğrulama ekiplerinde tıbbi konuların yanı sıra hassas etik konuların da yüzeysel bilgiye sahip kişilere verildiğini doğruluyor.
Gemini, ChatGPT ve Grok ile çalışan ve gizlilik anlaşmaları imzaladıktan sonra anonim kalmayı talep eden bir yapay zeka profesörü , "Şaka yaparak, eğer yalan söylemeyi bırakabilirlerse [sohbet robotlarının] harika olacağını söylüyoruz" dedi .
" ÇÖP GİRER , ÇÖP ÇIKAR"2024'ün başlarında yapay zeka sohbet robotlarının tepkilerini değerlendirmeye başlayan bir başka yapay zeka değerlendiricisi, işe başladıktan yaklaşık altı ay sonra yapay zekaya güvenemeyeceğini hissetti . Modeli sorgulamakla görevlendirildi; bu da bota, sınırlamalarını veya zayıflıklarını ortaya çıkaracak çeşitli sorular sormak anlamına geliyordu. Tarih alanında lisans derecesine sahip olan bu kişi, modele tarihsel sorular sordu.
"Ona Filistin halkının tarihini sordum ve sorumu nasıl ifade edersem edeyim bana cevap vermedi," diye hatırlıyor. Gizlilik anlaşması nedeniyle isminin açıklanmasını istemeyen çalışan, "Ona İsrail tarihini sorduğumda, bana çok detaylı bir genel bakış sunmaktan çekinmedi. Durumu bildirdik ama şirkette kimse umursamadı."
Bu çalışan için yapay zeka eğitimiyle ilgili en büyük endişe, kendisi gibi değerlendiricilerin yapay zeka modellerine verdiği geri bildirimler. "Modeli eğitmek için kullanılan verilerin ne kadar kötü olduğunu gördükten sonra, düzgün bir şekilde eğitilmesinin kesinlikle mümkün olmadığını anladım" dedi.
Çalışan, "çöp girerse çöp çıkar" ifadesini kullanıyor. Bu, bilgisayar programlamada, teknik bir sisteme kötü veya eksik veri girerseniz, sonucun da kötü veya eksik olacağı anlamına gelen bir ilkedir.
Tarihçi, artık üretken yapay zekayı kullanmaktan kaçındığını ve "her aile üyesine ve arkadaşına, yerleşik yapay zekaya sahip yeni telefonlar almamalarını, mümkünse yapay zeka entegrasyonu ekleyen otomatik güncellemelerden kaçınmalarını ve yapay zeka hakkında kişisel hiçbir şey söylememelerini" tavsiye ettiğini söylüyor.
KIRILGAN, FÜTÜRİSTİK DEĞİLYapay zeka konusu her açıldığında Hansen, insanlara yapay zekanın sihir olmadığını hatırlatıyor. Yapay zekanın ardındaki görünmez işçiler ordusundan ve eğitim verilerinin güvenilmezliğinden bahsediyor.
Yapay Zeka Dağıtık Araştırma Enstitüsü'nde yapay zekanın arkasındaki çalışmaları inceleyen Adio Dinica, "Bu sistemlerin nasıl inşa edildiğini gördüğünüzde -çarpıklıkları, aceleye getirilmiş teslim tarihlerini, sürekli tavizleri- yapay zekayı fütüristik bir şey olarak görmeyi bırakıp çok kırılgan bir sistem olarak görmeye başlıyorsunuz," diyor. "Deneyimlerime göre, yapay zekaya hayran olanlar çoğunlukla onu anlamayan insanlar."
Yapay zeka uzmanları genellikle daha iyi kararlar alma ve çevrelerinde farkındalık yaratma sorumluluğunu üstlendiklerini söylüyorlar. Hansen'in de dediği gibi, yapay zekanın "içine giren bilgi kadar iyi olduğu ve içine giren bilginin her zaman en iyi bilgi olmadığı" anlayışını vurguluyorlar.
Kendisi ve Pawloski, Mayıs ayında ABD'deki Michigan Okul Kurulları Birliği bahar konferansında bir sunum yaptılar. Eyaletin dört bir yanından okul kurulu üyeleri ve yöneticilerle dolu bir salonda, yapay zekanın etik yönleri hakkında konuşarak bir sohbet başlatmayı umdular.
Hansen, "Katılımcıların çoğu öğrendikleri karşısında şok oldu. Çoğu, yapay zekanın ardındaki insan emeğini hiç duymamıştı," diyor. "Bazıları paylaşılanlar için minnettardı. Diğerleri ise hayal kırıklığına uğradı ve heyecan verici ve potansiyel dolu gördükleri teknolojiler konusunda bizi 'karanlık' olmakla suçladılar."
Pavloski, yapay zekanın etik anlayışını tekstil endüstrisinin etik anlayışıyla karşılaştırıyor: İnsanlar ucuz kıyafetlerin nasıl üretildiğini bilmediklerinde, en ucuz bluzu alıp tasarruf etmekten mutluluk duyuyorlar. Ancak düşük fiyatın, ağır tavizlerden, yani zehirli kimyasalların kullanıldığı havasız fabrikalarda çocuk işçi çalıştırılmasından kaynaklandığını öğrendiklerinde, bu fiyatın kabul edilemez olduğunu anlıyorlar. Yapay zeka eleştirmenleri de aynı şeyin yapay zeka için de geçerli olduğuna inanıyor.
Pawlowski, "Veriler nereden geliyor? Bu model telif hakkı ihlali uygulamalarına mı dayanıyor? Çalışanlar emekleri karşılığında adil bir ücret aldılar mı? Yapay zeka modellerini eğitebilecek yeterlilikteler mi? " diye soruyor.
Bu ve benzeri sorular ancak şimdi sorulmaya başlandı. Hem de birkaç kişi tarafından.
Bu konudaki diğer haberler:
Görüntülenme:94
Bu haber kaynaktan arşivlenmiştir 27 Kasım 2025 17:48 kaynağından arşivlendi



Giriş yap
Haberler
Türkiye'de Hava durumu
Türkiye'de Manyetik fırtınalar
Türkiye'de Namaz vakti
Türkiye'de Değerli metaller
Türkiye'de Döviz çevirici
Türkiye'de Kredi hesaplayıcı
Türkiye'de Kripto para
Türkiye'de Burçlar
Türkiye'de Soru - Cevap
İnternet hızını test et
Türkiye Radyosu
Türkiye televizyonu
Hakkımızda








En çok okunanlar



















