Vos prieš kelias dienas pasirodė naujiena, kuri tikrai nepaliko tokios kompanijos kaip „Google“ labai geroje vietoje, mes kalbėjome konkrečiai apie tai, kiek jos darbuotojų protestavo, kad keli išeitų iš darbo, nes sužinojo, kad Šiaurės Amerikos kompanija kartu su Pentagonu kuria kariškiams skirtą dirbtinį intelektą.
Konkrečiai kalbame apie žinomą kaip Projektas „Maven“, tas pats, kas pastarosiomis dienomis sulaukė didžiulės įtakos, kuri nieko gero nepadarė bendrovės prestižui. Dėl to nenuostabu, kad pirmiausia nusprendė tiek šio skyriaus, tiek įmonės pagrindiniai vadovai Nepratęsus sutarties, kuri juos sieja su JAV gynybos departamentu nors, norėdami nuraminti visą bendruomenę ir ypač jos darbuotojus, jie paskelbė etikos standartų seriją, kurios nuo šiol bus laikomasi visuose su šia sritimi susijusiuose pokyčiuose.
„Google“ toliau ieškos karinių ir vyriausybinių sutarčių
Dabar, būdama gera privati įmonė, kuri daugeliu atvejų išgyvena iš sultingų sutarčių, pasirašytų su viešaisiais subjektais, „Google“ labai aiškiai parodo, nepaisant šių etinių principų, susijusių su dirbtiniu intelektu pagrįstų sistemų kūrimu, paskelbimo. toliau ieškos tiek karinių, tiek vyriausybinių sutarčių kadangi tai yra sektoriai, kurie šiandien investuoja milijardus dolerių į debesijos paslaugas ir nei „Google“, nei jokia kita panaši įmonė nenori likti nuo šio verslo.
Šie žodžiai tiesiogine prasme kyla iš ataskaitos, kuri buvo paskelbta google svetainė kur pažodžiui galime perskaityti kažką panašaus:
Norime aiškiai pasakyti, kad nors mes nekuriame dirbtinio intelekto, skirto naudoti ginkluose, toliau bendradarbiausime su vyriausybėmis ir kariškiais daugelyje kitų sričių. Tai apima kibernetinį saugumą, mokymą, karinį verbavimą, veteranų sveikatos priežiūrą, taip pat paiešką ir gelbėjimą.
Tai yra 7 etikos standartai, kuriuos „Google“ pati nustatė kurdama dirbtinio intelekto sistemas
Tai yra septyni etikos standartai „Google“ tikina, kad jos laikysis kuriant naują dirbtinio intelekto platformą:
1. Būkite socialiai naudingi
Kadangi naujųjų technologijų sritis vis labiau veikia visuomenę, dirbtinio intelekto pažanga bus transformuojama įvairiose srityse, įskaitant medicinos, saugumo, energetikos, transporto, gamybos ir pramogų sektorius. Kurdami dirbtinį intelektą, kurdami savo platformą, atsižvelgsime į daugybę socialinių ir ekonominių veiksnių, kai manome, kad bendra tikėtina nauda yra daug didesnė už numatomą riziką ir trūkumus.
2. Venkite nesąžiningo šališkumo sukūrimo ar sustiprinimo
Mes stengsimės išvengti nesąžiningo poveikio, kurį dirbtinio intelekto sistema gali sukelti žmonėms, ypač susijusių su jautriomis savybėmis, tokiomis kaip rasė, etninė priklausomybė, lytis, tautybė, pajamos, seksualinė orientacija, gebėjimai ir politiniai ar religiniai įsitikinimai.
3. Sukurtas ir patikrintas dėl saugumo
Mes sukursime savo dirbtinio intelekto sistemas pakankamai apdairias ir stengsimės jas tobulinti pagal geriausią dirbtinio intelekto saugumo tyrimų praktiką. Tam tikrais atvejais mes išbandysime dirbtinio intelekto technologijas ribotoje aplinkoje ir stebėsime jų veikimą po diegimo.
4. Būkite atskaitingas žmonėms
Sukursime dirbtinio intelekto sistemas, kurios suteiks tinkamas galimybes komentuoti, pateikti atitinkamus paaiškinimus ir įtraukti. Mūsų dirbtinio intelekto technologijos bus tinkamai valdomos ir kontroliuojamos.
5. Įtraukti privatumo projektavimo principus
Suteiksime galimybę pranešti ir sutikti, skatinsime saugų privatumą architektūrą ir užtikrinsime tinkamą duomenų naudojimo skaidrumą ir kontrolę.
6. Laikykitės aukštų mokslinės kompetencijos standartų
Dirbtinio intelekto priemonės gali atverti naujas mokslinių tyrimų ir žinių sritis tokiose kritinėse srityse kaip biologija, chemija, medicina ir aplinkos mokslas. Siekdami pažangos dirbtinio intelekto srityje, siekiame aukštų mokslinio meistriškumo standartų.
Bendradarbiausime su įvairiomis suinteresuotosiomis šalimis siekdami skatinti apgalvotą lyderystę šioje srityje, remdamiesi moksliškai griežtais ir daugiadisciplininiais metodais. Ir mes atsakingai dalinsimės dirbtinio intelekto žiniomis, skelbdami mokomąją medžiagą, geriausią praktiką ir tyrimus, kurie leis daugiau žmonių kurti naudingas dirbtinio intelekto programas.
7. Būkite prieinami naudoti šiuos principus atitinkančiais tikslais
Sieksime apriboti potencialiai kenksmingas ar piktnaudžiaujančias programas. Kurdami ir diegdami dirbtinio intelekto technologijas, įvertinsime galimą naudojimą atsižvelgdami į šiuos veiksnius:
- Pagrindinis tikslas ir naudojimas - pagrindinis technologijos ir programos tikslas ir tikėtinas naudojimas, įskaitant glaudų ar pritaikomą ryšį su žalingu tirpalo naudojimu
- Gamta ir unikalumas: jei mes teikiame prieinamą technologiją, kuri yra unikali arba apskritai prieinama
- Escala : ar šios technologijos naudojimas turės reikšmingą poveikį
- „Google“ dalyvavimo pobūdis - Nesvarbu, ar teikiame bendrosios paskirties įrankius, ar integruojame klientų įrankius, ar kuriame individualius sprendimus
Labas Jonas!
Gaukite šiltą sveikinimą!
Norėčiau pasikalbėti su jumis apie bendrą darbo pasiūlymą per mūsų skaitmeninį žurnalą.
Vertinu jūsų malonų atsakymą.