Google, oğlunun kasıklarının tıbbi görüntülerini alan adamın hesabını eski durumuna getirmeyi reddetti | teknoloji

New York Times’ın ilk bildirdiğine göre Google, oğlunun kasıklarından aldığı tıbbi görüntüleri yanlış bir şekilde çocuk cinsel istismarı materyali (CSAM) olarak işaretleyen bir adamın hesabını eski durumuna döndürmeyi reddetti. Uzmanlar, toplumsal bir soruna teknolojik bir çözüm uygulamaya çalışmanın kaçınılmaz bir tuzak olduğunu söylüyor.

Uzmanlar, özellikle şirketler cinsel istismar materyalinin varlığını ele almaya yardımcı olmak için düzenleyici ve kamu baskısı ile karşı karşıya kaldıkça, otomatik çocuk cinsel istismarı görüntü algılama sistemlerinin sınırlamaları konusunda uzun süredir uyarıda bulunuyorlar.

“Bu şirketler, insanların yaşamları hakkında muazzam derecede istilacı miktarda veriye erişebiliyor. ACLU’da kıdemli bir personel teknoloji uzmanı olan Daniel Kahn Gillmor, hala insanların yaşamlarının gerçekte ne olduğu bağlamına sahip değiller” dedi. “Hayatınızın gerçeğinin bu bilgi devleri için o kadar okunaklı olmadığı her türlü şey var.” Bu sistemlerin kolluk kuvvetleri için “vekillik yapan” teknoloji şirketleri tarafından kullanılmasının, insanları “devletin gücü” tarafından “süpürülme” riskiyle karşı karşıya bıraktığını da sözlerine ekledi.

Sadece New York Times tarafından Mark olarak tanımlanan adam, iltihaplı olduğunu fark ettikten sonra bir doktora göndermek için oğlunun kasıklarının fotoğraflarını çekti. Doktor bu görüntüyü Mark’ın oğlunu teşhis etmek ve antibiyotik reçete etmek için kullandı. Fotoğraflar otomatik olarak buluta yüklendiğinde, Google’ın sistemi onları CSAM olarak tanımladı. Times, iki gün sonra, Mark’ın Gmail ve telefon hizmetini sağlayan Google Fi de dahil olmak üzere diğer Google hesapları, “şirket politikalarını ciddi şekilde ihlal eden ve yasa dışı olabilecek” “zararlı içerik” nedeniyle devre dışı bırakıldı. telefonuna mesaj attı. Daha sonra Google’ın telefonunda bulunan başka bir videoyu işaretlediğini ve San Francisco polis departmanının kendisi hakkında soruşturma açtığını öğrendi.

Mark herhangi bir suç işlemekten aklandı, ancak Google kararının arkasında duracağını söyledi.

Google sözcüsü Christa Muldoon, “CSAM’i neyin oluşturduğunu tanımlarken ABD yasalarına uyuyoruz ve onu tanımlamak ve platformlarımızdan kaldırmak için karma eşleştirme teknolojisi ile yapay zekanın bir kombinasyonunu kullanıyoruz” dedi.

Muldoon, CSAM’i inceleyen Google çalışanlarının döküntü veya diğer sorunları aramak için tıp uzmanları tarafından eğitildiğini de sözlerine ekledi. Ancak kendilerinin tıp uzmanı olmadığını ve her bir vakayı incelerken tıp uzmanlarına danışılmadığını söyledi.

Gillmor’a göre bu sistemlerin zarar vermesinin tek yolu bu. Örneğin, zararlı cinsel istismar görüntüleri ile tıbbi görüntüleri ayırt etmede algoritmaların sahip olabileceği sınırlamaları ele almak için, şirketler genellikle döngüde bir insan bulundurur. Ancak bu kişilerin uzmanlıkları doğal olarak sınırlıdır ve her durum için uygun bağlamı elde etmek, kullanıcı verilerine daha fazla erişim gerektirir. Gillmor, bunun çok daha müdahaleci bir süreç olduğunu ve yine de CSAM’ı tespit etmenin etkisiz bir yöntemi olabileceğini söyledi.

“Bu sistemler insanlar için gerçek sorunlara neden olabilir” dedi. “Ve bu sistemlerin her çocuk istismarı vakasını yakalayamayacağını düşünmekle kalmıyorum, insanlar için yanlış pozitifler açısından gerçekten korkunç sonuçları var. İnsanların yaşamları, makineler tarafından gerçekten alt üst olabilir ve döngüdeki insanlar basitçe kötü bir karar verirler çünkü düzeltmeye çalışmak için hiçbir sebepleri yoktur.”

Gillmor, teknolojinin bu sorunun çözümü olmadığını savundu. Aslında, marjlardakilere orantısız şekilde zarar verebilecek sağlam bir gözetim sistemi oluşturmak da dahil olmak üzere birçok yeni sorunu ortaya çıkarabileceğini söyledi.

“Bir tür tekno-çözümcüler rüyası var, [where people say]’Aaa bilirsiniz, ucuz öğle yemeği bulmam için bir uygulama var, neden çocuk cinsel istismarı gibi çetrefilli bir toplumsal soruna çözüm bulmak için bir uygulama olmasın?” dedi. “Eh, bilirsin, aynı tür teknoloji veya beceri seti tarafından çözülmeyebilirler.”