Bunlar Google'ın yapay zeka sistemlerini geliştirmek için kullanacağı etik ilkelerdir

Google

Sadece birkaç gün önce Google gibi bir şirketi gerçekten çok iyi bir yerde bırakmayan bir haber çıktı., Kuzey Amerika şirketinin bir orduya yönelik bir yapay zekanın geliştirilmesinde Pentagon ile birlikte çalıştığını öğrendikleri için, birçoğunun işlerini bıraktığı noktaya gelindiğinde, kaç çalışanının protesto ettiğini özellikle konuştuk.

Özellikle bilinenlerden bahsediyoruz Proje MavenAynı durum, son günlerde büyük bir etki yarattı ve şirketin prestijine iyi bir şey yapmadı. Bu nedenle, hem bu departmanın hem de şirketin ana liderlerinin ilk etapta karar vermiş olması şaşırtıcı değildir. Kendilerini Amerika Birleşik Devletleri Savunma Bakanlığı'na bağlayan sözleşmenin yenilenmemesi tüm topluma ve özellikle de çalışanlarına güven vermek için, bu alanla ilgili tüm gelişmelerde bundan sonra izlenecek bir dizi etik standart yayınladılar.


Google hem askeri hem de hükümet sözleşmelerini aramaya devam edecek

Şimdi, kamu kurumları ile imzalanan sulu sözleşmelerden birçok durumda ayakta kalan iyi bir özel şirket olarak Google, yapay zekaya dayalı sistemlerin geliştirilmesine yönelik bu etik ilkelerin yayınlanmasına rağmen, hem askeri hem de hükümet sözleşmeleri aramaya devam edecek Bugün bulut hizmetlerine milyarlarca dolar yatırım yapan ve ne Google ne de benzeri herhangi bir şirket bu işin dışında kalmak istemeyen sektörler oldukları için.

Bu sözler, kelimenin tam anlamıyla, google web sitesi burada, kelimenin tam anlamıyla şöyle bir şey okuyabiliriz:

Silahlarda kullanılmak üzere yapay zeka geliştirmezken, diğer birçok alanda hükümetler ve orduyla birlikte çalışmaya devam edeceğimizi açıkça belirtmek isteriz. Bunlar arasında siber güvenlik, eğitim, askeri işe alma, gazilerin sağlık hizmetleri ile arama ve kurtarma yer alıyor.

yapay zeka

Bunlar, Google'ın yapay zeka sistemlerinin geliştirilmesi için uyguladığı 7 etik standarttır.

Bunlar yedi etik standarttır. Google, uyacağını garanti eder yeni bir yapay zeka platformu geliştirirken:

1. Sosyal açıdan faydalı olun

Yeni teknolojilerin kapsamı toplumu giderek daha fazla etkilediğinden, yapay zeka alanındaki gelişmeler medikal, güvenlik, enerji, ulaşım, imalat ve eğlence sektörleri de dahil olmak üzere geniş bir yelpazede dönüştürücü olmaya çalışılacaktır. Yapay zeka geliştirirken, genel olası faydaların öngörülebilir risk ve dezavantajlardan önemli ölçüde ağır bastığına inandığımızda, platformumuzu geliştirirken çok çeşitli sosyal ve ekonomik faktörleri dikkate alacağız.

2. Haksız bir önyargı oluşturmaktan veya bunu pekiştirmekten kaçının

Bir yapay zeka sisteminin insanlar üzerinde, özellikle ırk, etnik köken, cinsiyet, milliyet, gelir, cinsel yönelim, yetenek ve siyasi veya dini inançlar gibi hassas özelliklerle ilgili olanlar üzerinde neden olabileceği haksız etkilerden kaçınmaya çalışacağız.

3. Güvenlik için üretilmiş ve test edilmiştir

Yapay zeka sistemlerimizi yeterince ihtiyatlı olacak şekilde tasarlayıp, yapay zeka güvenlik araştırmalarında en iyi uygulamalara uygun olarak geliştirmeye çalışacağız. Uygun olduğu durumlarda, AI teknolojilerini kısıtlı ortamlarda test edeceğiz ve dağıtımdan sonra performanslarını izleyeceğiz.

4. İnsanlara karşı sorumlu olun

Yorumlar, ilgili açıklamalar ve etkileşim için uygun fırsatlar sağlayan yapay zeka sistemleri tasarlayacağız. Yapay zeka teknolojilerimiz, uygun insan yönlendirmesine ve kontrolüne tabi olacaktır.

5. Gizlilik tasarım ilkelerini dahil edin

Bildirim ve onay için fırsat sağlayacak, gizlilik açısından güvenli mimarileri teşvik edecek ve verilerin kullanımı üzerinde uygun şeffaflık ve kontrol sağlayacağız.

6. Yüksek bilimsel mükemmellik standartlarını koruyun

Yapay zeka araçları, biyoloji, kimya, tıp ve çevre bilimi gibi kritik alanlarda yeni bilimsel araştırma ve bilgi alanlarının kilidini açma potansiyeline sahiptir. Yapay zekanın gelişimini ilerletmek için çalışırken yüksek bilimsel mükemmellik standartlarını hedefliyoruz.

Bilimsel açıdan titiz ve çok disiplinli yaklaşımlardan yararlanarak, bu alanda düşünceli liderliği teşvik etmek için çeşitli paydaşlarla birlikte çalışacağız. Ve daha fazla insanın yararlı AI uygulamaları geliştirmesini sağlayan eğitim materyalleri, en iyi uygulamalar ve araştırmalar yayınlayarak AI bilgilerini sorumlu bir şekilde paylaşacağız.

7. Bu ilkelere uygun kullanımlara hazır olun

Olası zararlı veya kötüye kullanım amaçlı uygulamaları sınırlandırmak için çalışacağız. Yapay zeka teknolojilerini geliştirip devreye aldıkça, olası kullanımları aşağıdaki faktörler ışığında değerlendireceğiz:

  • Birincil amaç ve kullanım - çözümün zararlı kullanımıyla yakın veya uyarlanabilir ilişki dahil olmak üzere, bir teknolojinin ve bir uygulamanın birincil amacı ve olası kullanımı
  • Doğa ve benzersizlik: benzersiz veya daha genel kullanıma açık bir teknoloji sunuyorsak
  • ölçek : bu teknolojinin kullanımının önemli bir etkisi olup olmayacağı
  • Google'ın katılımının niteliği - İster genel amaçlı araçlar sağlıyor, ister müşteri araçlarını entegre ediyor veya özel çözümler geliştiriyor olalım

Makalenin içeriği şu ilkelerimize uygundur editoryal etik. Bir hata bildirmek için tıklayın burada.

Bir yorum bırak seninkini

Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: Miguel Ángel Gatón
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.

  1.   Cristina LaFee dijo

    Merhaba John !

    Sıcak bir selam alın!

    Sizlerle dijital dergimiz aracılığıyla ortak bir çalışma önerisinden bahsetmek istiyorum.

    Nazik cevabınızı takdir ediyorum.