Бұл Google өзінің жасанды интеллект жүйесін дамыту үшін қолданатын этикалық қағидалар

Google

Бірнеше күн бұрын Google сияқты компанияны өте жақсы жерде қалдырмайтын жаңалықтар шықты., біз оның жұмысшыларының көбі солтүстік америкалық компанияның Пентагонмен бірге әскери күшке арналған жасанды интеллектіні дамытуда жұмыс істейтінін білгендіктен, бірнеше адам жұмыстан кетуге дейін жеткеніне наразылық білдіргені туралы арнайы әңгімелестік.

Нақты айтқанда, біз белгілі ретінде сөйлейміз Maven жобасы, бұл соңғы күндері үлкен әсер етті, бұл компанияның беделіне жақсы әсер еткен жоқ. Осыған байланысты, осы бөлімнің де, компанияның да басты басшылары бірінші кезекте шешім қабылдауы ғажап емес Оларды Құрама Штаттардың қорғаныс министрлігімен байланыстыратын келісімшарттың жаңартылмауы бүкіл қоғамдастықты және әсіресе оның жұмысшыларын тыныштандыру үшін олар осы салаға қатысты барлық әзірлемелерде бұдан былай сақталатын бірқатар этикалық стандарттарды жариялады.


Google әскери және мемлекеттік келісімшарттарды іздеуді жалғастырады

Енді көптеген жағдайларда мемлекеттік ұйымдармен жасалған шырынды келісімшарттардан аман қалатын жақсы жеке компания ретінде Google жасанды интеллектке негізделген жүйелерді дамытудың осы этикалық қағидаларын жариялағанына қарамастан, мұны не екенін анық көрсетеді. әскери және үкіметтік келісімшарттарды іздеуді жалғастырады өйткені олар бүгінде бұлттық қызметтерге миллиардтаған доллар салатын және Google де, басқа да осыған ұқсас компаниялар бұл бизнестен тыс қалғысы келмейтін секторлар.

Бұл сөздер сөзбе-сөз жарияланған мақаладан шыққан google веб-сайты мұнда біз сөзбе-сөз оқи аламыз:

Біз қаруды қолдану үшін жасанды интеллект дамымай жатқанымызбен, көптеген басқа салаларда үкіметтермен және әскерилермен жұмыс істей беретіндігімізді білдіргіміз келеді. Оларға киберқауіпсіздік, дайындық, әскери қызметке шақыру, ардагерлердің денсаулығын сақтау және іздеу-құтқару кіреді.

жасанды интеллект

Бұл Google-дің жасанды интеллект жүйелерін дамытуға өзі енгізген 7 этикалық стандарттары

Бұл жеті этикалық стандарт Google бұл сәйкес келеді деп сендіреді жаңа жасанды интеллект платформасын жасау кезінде:

1. Қоғамдық жағынан пайдалы болыңыз

Жаңа технологиялардың ауқымы қоғамға көбірек әсер ететін болғандықтан, жасанды интеллект саласындағы жетістіктер медициналық, қауіпсіздік, энергетика, көлік, өндіріс және ойын-сауық салаларында, соның ішінде көптеген салаларда өзгергіштікке ұмтылатын болады. Жасанды интеллектті дамытуда біз болжамды тәуекелдер мен кемшіліктерден айтарлықтай ықтимал артықшылықтар едәуір басым деп есептеген кезде біз өз платформамызды дамытуда көптеген әлеуметтік және экономикалық факторларды ескереміз.

2. Әділетсіздікке жол бермеңіз

Біз жасанды интеллект жүйесінің адамдарға, әсіресе нәсіліне, этносына, жынысына, ұлтына, табысына, жыныстық бағдарына, қабілетіне және саяси немесе діни сенімдеріне қатысты сезімтал сипаттамаларға қатысты әділетсіз әсерден аулақ болуға тырысамыз.

3. Қауіпсіздік үшін салынған және тексерілген

Біз өзіміздің жасанды интеллект жүйелерімізді жеткілікті дәрежеде ақылды етіп құрастырамыз және оларды жасанды интеллект қауіпсіздігі саласындағы зерттеулердің озық тәжірибелеріне сәйкес дамытуға тырысамыз. Қажет болған жағдайда біз жасанды интеллект технологияларын шектеулі ортада тексереміз және орналастырылғаннан кейін олардың жұмысын қадағалаймыз.

4. Адамдар алдында есеп беріңіз

Біз түсініктемелер, тиісті түсініктемелер және қызығушылық үшін тиісті мүмкіндіктер беретін жасанды интеллект жүйелерін жасаймыз. Біздің жасанды интеллект технологиялары адамның тиісті бағыты мен бақылауына бағынады.

5. Құпиялылықты жобалау принциптерін енгізіңіз

Біз хабарлама мен келісім алуға, құпиялылыққа қауіпсіз архитектураны ынталандыруға және деректердің пайдаланылуына тиісті ашықтық пен бақылауды қамтамасыз етуге мүмкіндік береміз.

6. Ғылыми шеберліктің жоғары стандарттарын сақтау

Жасанды интеллект құралдары биология, химия, медицина және қоршаған ортаны қорғау сияқты маңызды салалардағы жаңа ғылыми ізденістер мен білімдерді ашуға қабілетті. Біз жасанды интеллекттің дамуын алға жылжытуда жоғары ғылыми шеберліктің жоғары стандарттарына ұмтыламыз.

Біз ғылыми тұрғыдан қатаң және көпсалалы тәсілдерге сүйене отырып, осы саладағы ойластырылған көшбасшылықты насихаттау үшін әртүрлі мүдделі тараптармен жұмыс істейтін боламыз. Біз көптеген адамдарға пайдалы интеллектуалды қолданбаларды жасауға мүмкіндік беретін оқу материалдарын, озық тәжірибелер мен зерттеулерді жариялау арқылы біз жасанды интеллект туралы білімдермен жауапкершілікпен бөлісеміз.

7. Осы қағидаттарға сәйкес келетін қолданыста болу

Біз ықтимал зиянды немесе қорлаушы қосымшаларды шектеу бойынша жұмыс істейтін боламыз. Жасанды интеллект технологияларын дамытып, қолдана отырып, біз келесі факторларды ескере отырып қолданылуын бағалаймыз:

  • Негізгі мақсаты және қолданылуы - технологияның және қосымшаның негізгі мақсаты және ықтимал қолданылуы, оның ішінде ерітіндіні зиянды қолдануға жақын немесе бейімделетін қатынас
  • Табиғат және бірегейлік: егер біз бірегей немесе жалпыға қол жетімді технологияны ұсынатын болсақ
  • Escala : осы технологияны қолдану айтарлықтай әсер ете ме
  • Google-дің қатысу сипаты - Біз жалпы мақсаттағы құралдарды ұсынамыз, тұтынушы құралдарын біріктіреміз немесе тапсырыс бойынша шешімдер жасаймыз

Мақаланың мазмұны біздің ұстанымдарымызды ұстанады редакторлық этика. Қате туралы хабарлау үшін нұқыңыз Мұнда.

Пікір, өз қалдыру

Пікіріңізді қалдырыңыз

Сіздің электрондық пошта мекен-жайы емес жарияланады. Міндетті өрістер таңбаланған *

*

*

  1. Деректерге жауапты: Мигель Анхель Гатан
  2. Деректердің мақсаты: СПАМ-ны басқару, түсініктемелерді басқару.
  3. Заңдылық: Сіздің келісіміңіз
  4. Деректер туралы ақпарат: заңды міндеттемелерді қоспағанда, деректер үшінші тұлғаларға жіберілмейді.
  5. Деректерді сақтау: Occentus Networks (ЕО) орналастырған мәліметтер базасы
  6. Құқықтар: Сіз кез-келген уақытта ақпаратты шектей, қалпына келтіре және жоя аласыз.

  1.   Кристина Лафи дижо

    Сәлем, Джон!

    Жылы сәлем алыңыз!

    Мен сіздермен біздің цифрлық журнал арқылы бірлескен жұмыс ұсынысы туралы сөйлескім келеді.

    Мен сіздің жылы жауабыңызды бағалаймын.