你的位置: 新2会员 > 新宝体育 > 谷歌·Bard“史诗级”更新:定制化的汉文处事,敞开图像分析功能
热点资讯

谷歌·Bard“史诗级”更新:定制化的汉文处事,敞开图像分析功能

发布日期:2024-03-13 16:53    点击次数:141

大数据文摘出品

本年三月份,谷歌晓示生成式AI Bard推出Beta测试版,那时的版块只面向好意思国和英国用户敞开公测,且暂时只赞成英语。

图注:Bard曾经有专属汉文界面!号称定制化的汉文处事

今天,Bard发布重要更新!Bard 赞成的话语目下新增了 40 多种,包括阿拉伯语、汉文(简体/繁体)、德语、印地语、西班牙语等。

同期,谷歌还增多了推出 Bard 的地区,包括欧盟的 27 个国度/地区和巴西。不外仍然没包含中国。

对于这次更新,称之为“史诗级”:‍Today we’re announcing Bard’sbiggest expansionto date.

1.Bard 赞成 Google 智能镜头:与 Bard 对话时,你不错上传图片及翰墨,并条款Bard提供联系图片的信息,联系功能暂时只赞成英语。

2.Bard 不错朗诵回答内容了:在 Bard 中添加了翰墨转语音功能。该功能赞成 40 多种话语,包括印地语、西班牙语和英语(好意思国)。

3.固定对话和近期对话:不错随时复返之前与 Bard 的对话持续互动,还可凭证需要整理对话。

4.与他东谈主分享 Bard对话:期骗可分享的畅通,让其他东谈主只需轻轻少量,即可削弱通达地稽查你的 Bard 对话内容和联系信息着手。

图注:修改回答

5.修改 Bard 的回答:推出了 5 个新选项,可用来修改 Bard 的回答。只需点按相应的选项,即可让回答内容变得愈加浅薄少量、注目少量、简枯竭量、专科少量或松懈少量。

6.将 Python 代码导出至 Replit:除了 Google Colab 除外,还不错将 Python 代码导出到 Replit。

对于谷歌的Bard计算

目下Bard 是一个实验神志,由Google 的 PaLM 2 模子提供赞成,让用户约略与生成式 AI 协同互助。

自从OpenAI在2022年11月发布ChatGPT后,Google似乎一直在致力蹈厉奋发其AI的发展。

2023年5月的Google I/O年度大会有了履行性的算作。在长达两小时的主题演讲中,谷歌CEO Sundar Pichai和其他高管演讲者,更是多达140次以上提到了“生成式AI”。

谷歌全力参预到科技潮水中。尽管Bard的用户数未能达到ChatGPT的水平,但近期增长显赫,当天的更新可能进一步推进其增长。

比拟ChatGPT,Bard的最大上风是强大的信息资源,他们不错依托谷歌的搜索器用获得最新信息,凭证我方的梳理给出谜底。此前ChatGPT的检讨数据最新只到2021年,无法回答2022年之后的信息参谋。此外,Bard的回复速率也彰着快于ChatGPT。

Bard不错联网搜索信息,意味着用户不错径直筹谋今天的体育比赛比分、股价价钱走势、系列新闻动态。

文摘菌试了一下,搜索汉文贵府的功能,嗅觉相配差。

图注:Bard的汉文搜索功能

不外,有网友示意,Bard的精确识图功能极度遒劲:更新后的Google Bard约略稽查我的腕表的像片,正确识别腕表的特定品牌和型号,并从腕表名义读取数据。

谷歌东谈主工智能近况:主干推敲员“出逃”

从体验上不错看出,谷歌Bard的功能在生成文本,交融内容方面不如GPT-4;在高下文窗口容纳方面没“卷”过Claude。天然新增了“精确识图”功能,但能开释的坐蓐力确定不如前者。

似乎谷歌的AI之路这两大哥是慢了半拍。究其原因,除了踟蹰是否发布与ChatGPT访佛的聊天机器东谈主的“墨迹”的脾气,可能还和“留不住东谈主”的企业文化联系。彭博社音信,Transformer互助者Llion Jones将于本月底离开谷歌。

Transformer着手于论文“Attention is All You Need”,这篇开山之作奠定了今天生成式AI和大模子的基石。算上Llion Jones,那时签字的6位谷歌推敲员,曾经全部辞职。

Ashish Vaswani在Google Brain职责了五年后辞职,创办了Adept(生成性AI器用);

Noam Shazeer在Google职责了21年,当今是Character.AI的首席延主座;

Niki Parmar在Google职责后与Vaswani一皆创立了Adept,但其后她也离开了Adept创立了新的公司;

Jakob Uszkoreit在Google职责13年,当今他是Inceptive的联接首创东谈主;

Aidan Gomez当今是Cohere的联接首创东谈主和首席延主座;

Lukasz Kaiser离开Google后加入了OpenAI,他对OpenAI的GPT-4作念出了紧要孝顺;

Illia Polosukhin在Google职责三年后创立了NEAR,接力于打造Web3系统。

此外,还有一些重磅论文的紧要作家也离开谷歌。举例:漠视通用的端到端的序列学习方的论文“Sequence to Sequence Learning with Neural Networks”。

Ilya Sutskever驰名论文“序列-to-序列”的第一作家,在谷歌待了3年,于2015年离开谷歌,目下是OpenAI的首席科学家。

Google的首个聊天机器东谈主Meena 的技艺论文“Towards a Human-like Open-Domain Chatbot”,被以为是谎言语模子的又一个紧要里程碑,论文漠视了一种思法,即创建一个大型话语模子,对任何问题生成像东谈主雷同的修起,无需硬编码(hard-coded)检讨。

但内部的两个推敲员Daniel De Freitas和Romal Thoppilan都曾经辞职,前者在Google Brain职责了五年,后者职责了七年,当今两者共同诞生了Character.AI。

论文“LaMDA: Language Models for Dialog Applications”是Bard聊天机器东谈主的技艺基础,比Meena更遒劲,目下LaMDA的几位主要推敲东谈主员曾经离开谷歌,加入了Character.AI,包括前边提到的:Noam Shazeer、Daniel De Freitas。此外,在谷歌职责了四年的Alicia Jin曾经经加入了Character.AI。

BERT是一种基于Transformer模子的天然话语惩处器用,它通过瞻望避讳或\"掩码\"的词来更好地交融文本。举例,要是你查询\"你能否为别东谈主在药店买药\",它会交融到\"别东谈主\"是查询的弊端部分。自2019年Google将BERT纳入搜索以来,它曾经极地面擢升了搜索的准确性。这篇论文由Jacob Devlin诱惑,他曾倏得在OpenAI职责,但最近又回到了Google。

论文“Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”漠视了驰名的T5架构,这篇论文的主导者Colin Raffel,也在2021年离开Google Brain。Raffel当今是北卡罗来纳大学教堂山分校的助理教练,并在Hugging Face每周担任一天的推敲员,用户不错在那儿分享大型话语模子和数据集。

论文“Chip placement with deep reinforcement learning”和“A graph placement methodology for fast chip design” 能期骗AI在芯片诡计中达到最大性能,同期减少面积和电力使用。这些发现匡助Google诡计了专为机器学习任务的TPU芯片。论文的两位紧要作家Mirhoseini和Goldie在2022年离开Google,加入了开辟大型话语模子和名为Claude的聊天机器东谈主的Anthropic。

至于辞职的原因,有职工示意,在AI发展如斯应允东谈主心的时代,初创公司为推敲东谈主员提供了契机,让他们领有更多的自主权,并可能产生更大的影响。

换句话说,在谷歌推出新的思法 “太难了”,因为一朝失败会对大公司声誉形成相配大的影响。



----------------------------------