DOLAR 32,2140
EURO 34,7146
ALTIN 2.450,75
BIST 10.315,85
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 16°C
Hafif Yağmurlu
İstanbul
16°C
Hafif Yağmurlu
Cts 21°C
Paz 17°C
Pts 19°C
Sal 21°C

OpenAI’ın Son Teknoloji Yapay Görüş Sistemi Basit Bir Yöntemle Kandırıldı

08.03.2021
A+
A-

San Francisco merkezli yapay zekâ araştırma şirketi OpenAI’dan araştırmacılar, şirketin son teknoloji yapay görme sisteminin kalem ve kâğıt gibi çok da karmaşık olmayan araçlar aracılığıyla kandırılabileceğini keşfetti. Test için bir nesnenin üzerine başka bir nesnenin adını yazan araştırmacılar, yazılımı kandırarak gördüklerini yanlış tanımlamasını sağladı.

Paylaşılan blog gönderisinde “Bu saldırılara tipografik saldırılar diyoruz” diyen araştırmacılar, konu hakkında “Modelin metni güçlü bir şekilde okuma yeteneğinden yararlanarak, elle yazılmış metin fotoğraflarının bile çoğu zaman modeli yanıltabileceğini gördük” ifadelerini kullandı. Bu tür saldırıların, yapay görme sistemlerini kandırabilecek ancak üretilmesi çok daha basit olan “adversarial” görüntülere benzediğini belirtiyorlar.

Sistemi eğitmek için 400 milyondan fazla veri kullanıldı:

OpenAI

Modelleri şaşırtmak ve aldatmak için kasıtlı olarak bozulmuş piksellere sahip “adversial” görüntüler, makine görmesine dayanan sistemler için gerçek bir tehlike oluşturuyor. Bir örnek vermek gerekirse araştırmacılar, Tesla’nın sürücüsüz araçlarındaki yazılımının, yola belirli etiketler yapıştırarak uyarı vermeden şerit değiştirmek için kandırılabileceğini göstermişti. Dolayısıyla bu tür saldırılar, tıptan orduya kadar çeşitli AI uygulamaları için ciddi bir tehdit oluşturuyor.

Yine de araştırmacılar, ortaya çıkan bu tehlikenin en azından şimdilik endişelenecek bir şey olmadığını söylüyor. Zira söz konusu OpenAI yazılımı, herhangi bir ticari üründe kullanılmayan CLIP adlı deneysel bir sistem. OpenAI’ın geçtiğimiz aylarda tanıttığı genel amaçlı bir görme sistemi olan CLIP, eğitilmek için internetten alınan yaklaşık 400 milyon adet görüntü ve metin kullanmıştı.

OpenAI

Laboratuvar tarafından paylaşılan bir başka örnek de CLIP’deki kumbaraları tanımlayan nöron oldu. Bu bileşen yalnızca kumbara resimlerine değil, aynı zamanda dolar ‘$’ işaretleri yanıt verir. Yukarıdaki örnekte olduğu gibi araştırmacılar, bir motorlu testereye ‘$’ işaretleri ekleyerek yapay zekanın onu elektrikli testere yerine kumbara olarak tanımlamasını sağladı.

OpenAI araştırmacıları ayrıca, CLIP’in çoklu biçimli nöronlarının, internette bir arama yaparken karşınıza çıkabilecek ön yargılara ve çağrışımlara sahip olduğunu keşfetti. Bunlardan bazıları ‘terörizm’ çağrışımına sahip ‘Ortadoğu’ nöronu ve hem koyu tenli insanlara hem de gorillere karşılık gelen bir başka nörondu.

YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.