博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
霍金警告人工智能危险性 称其若失控很难被阻止
阅读量:6070 次
发布时间:2019-06-20

本文共 652 字,大约阅读时间需要 2 分钟。

著名天体物理学家史蒂芬霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止祝

美国知名记者拉里金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。

霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”

他指出,人工智能可以比人类的智慧发展得更快。

智搜(Giiso)信息成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时旗下研发产品包括资讯机器人、、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。

资料图:著名天体物理学家霍金。

智搜(Giiso)信息成立于2013年,是国内首家专注于资讯智能处理技术研发及核心软件开发和运营的高科技企业。公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。

他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”

他认为,有益的人工智能将出现在人类生活的各方面。

霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

转载地址:http://qibgx.baihongyu.com/

你可能感兴趣的文章
在sun 刀片机上使用CAM配置LV
查看>>
HCL里MSR36-20的PPPoE配置(含client和server)
查看>>
nginx + django
查看>>
android网络请求
查看>>
挨踢部落第一期:Spark离线分析维度
查看>>
bash之条件测试及if语句
查看>>
ldd命令,查看依赖的动态库信息 nm命令可以列出一个函数库文件中的符号表
查看>>
缓存实例的举例---java.lang.Integer类
查看>>
内存溢出之Tomcat内存配置-catalina.sh or catalina.bat
查看>>
mysql触发器总结
查看>>
我的友情链接
查看>>
Linux云计算架构师成长之路-第一章 计算机硬件基础-1.4 服务器主要部件
查看>>
json遍历
查看>>
Linux运维工程师面试题
查看>>
常用shell脚本
查看>>
10.31 springMVC 与 hibernate 配置
查看>>
总结最近学的struts学习笔记《1》
查看>>
windows server 2008系统IOS镜像下载地址
查看>>
Sharesdk 2.6.1 真坑
查看>>
python登录加随机验证码校验程序(装饰器内置函数的理解)
查看>>