就在几天前,有消息传出,确实没有在一个非常好的地方离开像Google这样的公司,我们特别谈到了有多少员工在抗议,以至于有些员工辞职了,因为他们得知这家北美公司正在与五角大楼合作开发用于军事的人工智能。
具体来说,我们所说的称为 Project Maven,这在最近几天产生了巨大影响,但对公司的声望却影响不大。 因此,该部门和公司的主要领导首先做出决定就不足为奇了 无法续签将其约束到美国国防部的合同 同时,为了使整个社区,特别是其工人感到放心,他们发布了一系列道德标准,从现在开始,将在与该领域相关的所有发展中遵循这些道德标准。
Google将继续搜寻军事和政府合同
现在,作为一家优秀的私营公司,它在与公共实体签订的多汁合同中多次幸存下来,尽管已发布了这些用于开发基于人工智能的系统的道德原则,但Google还是很清楚地指出 将继续寻求军事和政府合同 由于这些行业如今已在云服务上投资了数十亿美元,因此Google和其他类似公司都不想退出该业务。
这些字面意思是从 谷歌网站 在这里,我们可以从字面上读取类似的内容:
我们要明确指出,尽管我们不开发用于武器的人工智能,但我们将继续在许多其他领域与政府和军方合作。 其中包括网络安全,培训,军事招募,退伍军人的医疗保健以及搜索和救援。
这些是Google为开发人工智能系统而制定的7项道德标准
这些是七个道德标准, Google保证会遵守 在开发新的人工智能平台时:
1.对社会有益
随着新技术的范围越来越影响社会,人工智能的进步将在医疗,安全,能源,交通,制造和娱乐等广泛领域中寻求变革。 在开发人工智能时,当我们相信总体可能的收益大大超过可预见的风险和不利因素时,我们将在开发平台时考虑各种社会和经济因素。
2.避免造成或加强不公正的偏见
我们将尽力避免人工智能系统可能对人造成的不公平影响,尤其是那些与敏感特征有关的影响,例如种族,种族,性别,国籍,收入,性取向,能力以及政治或宗教信仰。
3.建立并经过安全测试
我们将设计足够谨慎的人工智能系统,并尝试根据人工智能安全研究的最佳实践来开发它们。 在适当的情况下,我们将在受限环境中测试AI技术,并在部署后监控其性能。
4.对人负责
我们将设计人工智能系统,为评论,相关解释和参与提供适当的机会。 我们的人工智能技术将受到适当的人员指导和控制。
5.纳入隐私设计原则
我们将提供机会来接收通知和同意,鼓励建立隐私安全的体系结构,并提供适当的透明度和对数据使用的控制。
6.保持高水平的科学成就
人工智能工具有可能在诸如生物学,化学,医学和环境科学等关键领域解锁科学探究和知识的新领域。 我们致力于推动人工智能的发展,并追求高标准的科学成就。
我们将与各种利益相关者一起,利用科学严谨和多学科的方法,促进在这一领域的深思熟虑的领导。 我们将通过发布教育材料,最佳实践和研究,以负责任的方式分享AI知识,使更多的人能够开发有用的AI应用程序。
7.可用于符合这些原则的用途
我们将努力限制可能有害或滥用的应用程序。 在开发和部署人工智能技术时,我们将根据以下因素评估可能的用途:
- 主要用途和用途 -技术和应用程序的主要目的和可能用途,包括与解决方案的有害使用密切或可适应的关系
- 自然与独特:如果我们正在提供独特的或更普遍的可用技术
- 规模 :使用这项技术是否会产生重大影响
- Google参与的性质 -我们是否提供通用工具,集成客户工具或开发定制解决方案
你好约翰 !
收到热烈的问候!
我想通过我们的数字杂志与您讨论一项联合工作建议。
非常感谢您的答复。