這些是Google用來開發其人工智能係統的道德原則

谷歌

就在幾天前,有消息稱,谷歌這樣的公司確實處境不佳。,我們具體討論了有多少員工進行抗議,甚至有幾位員工辭職,因為他們發現這家北美公司正在與五角大樓合作開發用於特定用途的人工智能。 。

具體來說,我們正在談論所謂的 項目Maven,最近幾天產生了巨大的影響,這對公司的聲譽沒有起到很好的作用。 因此,這個部門和公司的主要領導都做出這樣的決定也就不足為奇了,首先 不續簽將他們與美國國防部聯繫起來的合同 同時,為了讓整個社區,特別是其工人放心,他們發布了一系列道德標準,從現在開始,他們將在與該領域相關的所有發展中遵循這些標準。

谷歌將繼續尋求軍事和政府合約

現在,作為一家優秀的私人公司,通常依靠與公共實體簽訂的豐厚合約生存,谷歌非常明確地表示,儘管發布了基於人工智慧的系統開發的道德原則,但 他們將繼續尋求軍事和政府合約 因為這些產業如今在雲端服務上投資了數十億美元,Google或任何其他類似公司都不想被排除在這項業務之外。

這些話確實是從發表在《報告》的報告中得出的。 谷歌網站 從字面上我們可以讀到這樣的內容:

我們想明確的是,雖然我們不會開發用於武器的人工智慧,但我們將繼續在許多其他領域與政府和軍隊合作。 其中包括網路安全、培訓、徵兵、退伍軍人醫療保健以及搜救。

人工智能

這是谷歌為開發人工智慧系統而強加給自己的7個道德標準

這些是七項道德標準 谷歌保證將遵守 在開發新的人工智慧平台時:

1. 對社會有益

由於新技術的範圍日益影響社會,人工智慧的進步將在醫療、安全、能源、交通、製造和娛樂等廣泛領域尋求變革。 在開發人工智慧時,我們將在開發我們的平台時考慮廣泛的社會和經濟因素,我們相信整體可能的收益大大超過可預見的風險和缺點。

2. 避免製造或強化不公平的偏見

我們將盡力避免人工智慧系統可能對人造成的不公平影響,特別是與種族、民族、性別、國籍、收入、性取向、能力、政治或宗教信仰等敏感特徵有關的影響。

3. 安全建置和測試

我們將足夠謹慎地設計我們的人工智慧系統,並嘗試根據人工智慧安全研究的最佳實踐來開發它們。 在適當的情況下,我們將在受限環境中測試人工智慧技術,並在部署後監控其效能。

4、對人負責

我們將設計人工智慧系統,為回饋、相關解釋和參與提供適當的機會。 我們的人工智慧技術將受到適當的人類指導和控制。

5.納入隱私設計原則

我們將提供接收通知和同意的機會,鼓勵具有隱私保證的架構,並對資料使用提供適當的透明度和控制。

6. 保持科學卓越的高標準

人工智慧工具有潛力在生物學、化學、醫學和環境科學等關鍵領域開啟科學研究和知識的新領域。 在努力推動人工智慧的發展時,我們追求高標準的卓越科學。

我們將與各種利害關係人合作,利用科學嚴謹和多學科的方法,促進這一領域的反思性領導。 我們將透過發布教育材料、最佳實踐和研究來負責任地分享人工智慧知識,使更多的人能夠開發有用的人工智慧應用程式。

7. 可用於符合這些原則的用途

我們將努力限制潛在有害或濫用的應用程式。 當我們開發和部署人工智慧技術時,我們將根據以下因素評估可能的用途:

  • 主要目的和用途 :技術和應用程式的主要目的和可能的用途,包括解決方案是否與有害用途密切相關或適用於有害用途
  • 自然性和獨特性:如果我們正在提供獨特或更普遍可用的技術
  • 埃斯卡拉 :使用該技術是否會產生重大影響
  • Google 參與的性質 - 我們是否提供通用工具、為客戶整合工具或開發客製化解決方案

發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責數據:MiguelÁngelGatón
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。

  1.   克里斯蒂娜·拉菲 他說:

    你好約翰 !

    收到親切的問候!

    我想透過我們的數位雜誌與您討論一項聯合工作提案。

    感謝您的善意回覆。