|
神经网络之父、图灵奖获得者 Geoffrey Hinton 评论 GPT-3 :「鉴于 GPT-3 在未来的惊人前景,可以得出结论:生命、宇宙和万物的答案,就只是 4.398 万亿个参数而已。」
危险警告!互联网原子弹,人工智能界的卡丽熙,算力吞噬者,黄仁勋的新 KPI ,下岗工人制造机,幼年期的天网 —— 最先进的 AI 语言模型 GPT-3来了!
近日,马斯克接受《纽约时报》专访时警告称,人工智能带来的危险已迫在眉睫,未来5年内人类就可能被人工智能超越。他表示,目前所有的人工智能项目中,最担心的是谷歌的DeepMind项目。「DeepMind 所构建的人工智能本质是在所有游戏中战胜人类,而这跟 80 年代科幻电影《战争游戏》(WarGames)的背景极为相似。」
看完这条消息,小编表示「钢铁侠」马斯克还是先不要说别人家的人工智能了,还是先管好自己家的人工智能吧,你公司旗下的 GPT-3 已经要抢走大家的饭碗了......
就算你完全不了解AI,相信你最近也或多或少的看到了有关 GPT-3 的重磅消息,有媒体称其为 「继区块链技术之后又一个轰动全球的现象级新技术」。这项技术究竟有多厉害?小编希望你最好不要真的体会到。
在了解 GPT-3 的威力之前我们先来了解一下它是谁。
GPT 是Generative Pre-training Transformer 的简称,是由 Alec Radford 编写的语言模型,2018 年由埃隆·马斯克的人工智能研究实验室 OpenAI 发布。它采用了生成式语言模型(两个神经网络通过竞争相互完善),通过对不同的书面材料集与长篇连载文本的预训练,能够获取世界知识并处理长程依赖关系。
GPT-2于2019年2月宣布,是一个无监督的转化语言模型,它是在800万份文档上训练出来的,共40GB的文本,来自通过Reddit提交分享的文章。埃隆·马斯克并不愿意发布它,因为他担心它可能被用来向社交网络发送假新闻。
2020年5月,OpenAI发布了GPT-3,这个模型包含的参数比GPT-2多了两个数量级(1750亿vs 15亿个参数),并且使用45TB数据进行训练,是有史以来创建的最大语言模型。源于它的参数模型巨大,因此可以完成许多其他模型无法完成的事情。
下岗工人制造机GPT-3经过了整个互联网数千亿个单词的训练,它能够使用CSS、JSX、Python等任何一种语言编程。
通过使用 GPT-3 无代码编程和AutoML离我们越来越近,
用 GPT-3 开发的自动回复邮件工具,只需要输入几个简要的回复关键词,GPT-3 就能自动生成一篇文笔流畅的回复邮件:
用GPT3做了个简单的页面生成器,他只需要输入“给我一个长得像西瓜的按钮”,GPT3会直接输出一个圆形的、内红外绿的按钮。
十秒钟生成一个 Google 首页:
如果输入的信息是:「超大的红字,写着『欢迎来到我的通讯页』,底部再来一个订阅按钮」。输出的效果下面这样。
它还能自己编写AI模型。只要给GPT-3提出具体的需求:
构建一个图像分类模型,把图片分成5类,训练数据集共有2.5万张图片,输入图片尺寸为500×500。
很快GPT-3就输出了模型的完整代码:
当然数据库知识也不在话下。
现在用SQL实现数据的统计查找,基本就是一句话的事情,提出需求,GPT-3几秒内快速给出SQL查询代码。
还有运维的活儿,GPT-3也懂一点。
开发小哥哥小姐姐是不是已经开始担心失业了?别担心会计同学们或许会更早失业......
滑铁卢大学的计算机学生 Yash Dani 用 GPT-3 开发了一个Python 驱动的资产负债表。输入“我今天投入了两万美元”、“后三个月的房租预付了900刀”这样的自然语言,程序能自动修改资产负债表上相应的项目数值:
推特有个程序员Merzmensch Kosmopol和GPT3来了一番深度对话,谈谈人类、AI和神的存在。「我现在已经没有任何疑问了。」结束聊天的程序员有一种看破尘世的沧桑感。
内容来源: |
|