Bilgi komisyoncusu firmaları ‘duygusal analiz’ teknolojileri konusunda uyarıyor | biyometri

Bilgi komisyoncusu, şirketleri, alanın “sözde bilimsel” doğası nedeniyle “duygusal analiz” teknolojilerinden uzak durmaları veya para cezalarıyla karşı karşıya kalmaları konusunda uyardı.

Komiser yardımcısı Stephen Bonner, düzenleyicinin yeni bir teknolojinin etkisizliği konusunda ilk kez kapsamlı bir uyarı yayınladığını, ancak şirketlerin anlamsız verilere dayanarak anlamlı kararlar vermelerinin neden olabileceği zararı haklı çıkardığını söyledi.

“Duyguları tespit etmeye yönelik biyometrik girişimler etrafında çok fazla yatırım ve katılım var” dedi. Bu tür teknolojiler, birinin cildinin parlaklığı veya yüzlerindeki kısacık “mikro ifadeler” gibi verileri kullanarak zihinsel durumlar hakkında bilgi çıkarmaya çalışır.

Bonner, “Ne yazık ki, bu teknolojiler bilim tarafından desteklenmiyor gibi görünüyor” dedi. “Bu oldukça endişe verici, çünkü bu teknolojileri oldukça önemli kararlar almanın olası yolları olarak inceleyen çok az sayıda kuruluşun farkındayız: insanların dolandırıcı olup olmadığını veya iş başvurusunda bulunanların bu rolü almaya layık olup olmadığını belirlemek. Ve bunların işe yaradığına dair bir anlam yok gibi görünüyor.”

Bonner, duygusal analiz teknolojisini kullanmanın başlı başına bir sorun olmadığını, ancak buna eğlenceden daha fazlası gibi davrandığını söyledi. “İyi, hafif uç durumlar olan pek çok kullanım var… Bir Cadılar Bayramı partiniz varsa ve partide kimin en çok korktuğunu ölçmek istiyorsanız, bu eğlenceli ve ilginç bir teknolojidir. Pahalı bir rastgele sayı üretecidir, ancak yine de eğlenceli olabilir.

Ama bunu insanlar hakkında önemli kararlar almak için kullanıyorsanız – bir fırsata mı yoksa bir tür faydaya mı hakları olduğuna karar vermek veya kimin bir düzeyde zarar veya soruşturma alacağını seçmek için, bu tür mekanizmalardan herhangi biri. … Bunu yapan kuruluşlara çok dikkat edeceğiz. Burada bahsettiğimiz şey, bir veri koruma sorunundan çok daha temeldir. İnsanların haklarını da ihlal edebilecekleri ve yasalarımızı çiğneyebilecekleri gerçeği, kesinlikle onlara dikkat etmemizin nedenidir, ancak işe yaramazlar.

“Bilim adamlarının buna yakın olmasının pek çok yolu var. Sanırım ‘hokum’ duyduk, ‘yarı pişmiş’ duyduk, ‘sahte bilim’ duyduk. Bu cazip bir olasılık: Başkalarının kafalarının içini görebilseydik. Ancak insanlar çok az kanıtla veya hiç kanıt olmadan olağanüstü iddialarda bulunduklarında buna dikkat çekebiliriz.”

“Duygusal AI” geliştirme girişimi, ICO’nun biyometrik teknolojilerin geleceği üzerine yaptığı bir çalışmada belirlediği dört konudan biridir. Bazıları, veri koruma kuralları konusunda daha fazla netlik talep eden benzer teknolojiler geliştiren şirketlerle basit düzenleyici konulardır.

Ancak diğerleri daha temel: düzenleyici, bakış izleme veya parmak izi tanıma gibi teknolojiler “bir kişi hakkında herhangi bir fiziksel temas olmaksızın doğrulanabilir veriler toplamak için bir kamera tarafından uzaktan konuşlandırılabildiğinde, veri koruma yasasını uygulamanın zor olduğu konusunda uyardı. sistem gerekli”. Diyelim ki bir istasyondan geçen her bir yolcudan izin almak neredeyse imkansız olurdu.

2023 baharında düzenleyici kurum, yüz, parmak izi ve ses tanıma dahil olmak üzere biyometrik teknolojilerin nasıl kullanılacağına dair kılavuz yayınlayacak. Alan özellikle hassastır, çünkü “biyometrik veriler bireye özgüdür ve kaybolması, çalınması veya uygunsuz kullanılması durumunda değiştirilmesi zor veya imkansızdır”.