当前位置:首页 > 数码 > Gemini到OpenAI-从Google-生成式AI研究领域全面综述-Q (gemini郭家毅)

Gemini到OpenAI-从Google-生成式AI研究领域全面综述-Q (gemini郭家毅)

admin2个月前 (04-27)数码14
生成式人工智能的演变:新兴技术和应用 简介 生成式人工智能(AI)是一项不断发展的技术,其能力在不断提高。本综述将批判性地分析生成式 AI的当前状态和未来方向,并探讨谷歌 Gemini 和备受期待的 OpenAI Q 等创新成果如何改变多个领域的实际应用。 生成式 AI 的演变 AI 的演变经历了几个关键时刻,包括深度学习和强化学习的兴起。最近,混合专家模型 (MoE) 和多模态 AI 系统的出现对该领域产生了重大影响。 大型语言模型 (LLM) LLM,例如 OpenAI 的 GPT-3 和谷歌的 Gemini,代表了生成式 AI 的一个重大转折点。这些技术彻底改变了行业和学术界,并重新点燃了关于 AI 意识及其对人类的潜在威胁的争论。 混合专家模型 (MoE) MoE 是一种 AI 模型,它将网络分解为多个专家,每个专家专注于输入的不同部分。这种方法提高了模型在处理多样化输入和促进多模态方法方面的能力。 多模态 AI 多模态 AI 系统能够处理多种输入模式,例如文本、图像和音频。这种能力使 AI 能够执行各种任务,从语言翻译到图像生成。 创新:Google Gemini 和 OpenAI Q Gemini 是一款由谷歌开发的 LLM,以其双向对话学习能力和“spike-and-slab”注意力方法而著称。据传 Q 将 LLM 的能力与复杂算法相结合,进一步推动了生成式 AI 的发展。 研究趋势 随着 Gemini 和 Q 等创新技术的出现,研究重点正在转向多模态能力和对话驱动的学习。预印本的传播加速了知识共享,但也带来了降低学术审查风险的担忧。 应用 生成式 AI 正在多个领域找到实际应用,包括: 医疗保健:疾病诊断、药物发现 金融:风险评估、投资建议 教育:个性化学习、内容生成 伦理问题 随着 AI 的发展,至关重要的是将伦理和以人为本的方法纳入其中,以确保其与社会规范和福祉相一致。 未来展望 生成式 AI 的未来充满机遇和挑战。研究重点应平衡 MoE、多模态和 AGI 的使用,以推进该领域的发展并确保其负责任地利用。 结论 生成式 AI 是一个不断发展的领域,具有改变各个领域应用的潜力。随着像 Gemini 和 Q 这样的创新技术出现,重要的是要批判性地评估其发展现状,探索其应用,并解决其伦理影响,以确保其负责任和有益地用于社会。

2019年AI人工智能领域都发生了什么?

2019 年无疑是忙碌的一年。人工智能的进步和新闻频频登上头条新闻,让我们的生活充满了敬畏和自豪的时刻,但一些其他时刻充却斥着一种恼人的想法,那就是这项技术让人们发现,我们的社会并没有准备好迎接人工智能的普及。

2019 年,究竟是人工智能进步的一年,还是幻灭的一年呢?随着研究人员攻城略地,迅速攻克以前难以企及的基准,今天,我们可不可以这样认为,这个领域已经正在步入稳步发展的轨道呢?

在 ADSP(Applied Data Science Partners,意即“应用数据科学合作伙伴”)网站上,我们想后退一步,把 2019 年的人工智能界发生的事件整理好,以让公众能够有个全新的视角。在聚光灯下,重要的是要将一项工作最初吸引人们的兴趣,与它的实际重要性,以及它对该领域产生的影响区分开来。为此,本文将展开人工智能故事的平行线索,并试图分离出它们的意义。多亏了我们出色的内容作家 Elena Nisioti,她将这些故事讲得如此精彩!

让我们坐下来,一起回顾 2019 年的人工智能领域的方方面面。

处在文艺复兴时期的领域 Gemini到OpenAI

如果让我们用一句话来描述 2019 年的人工智能现状,那很可能是:“强化学习(Reinforcement Learning )回归,看起来将永存”。

到目前为止,我们中的大多数人可能已经熟悉了监督式学习(Supervised Learning):有些人收集了大量的训练数据,将它们馈送到机器学习算法中,然后得到一个模型,这个模型可以为我们进行预测和分类。我们中的一些人甚至可能有这样的印象:即,人工智能就是监督式学习的同义词。然而,监督式学习只不过是我们今天拥有的 众多类型的机器学习 中的一种罢了。

在强化学习(Reinforcement Learning,RL)中,智能体用试错的方法,通过与环境进行交互来学习,这种环境会给它们的行为提供奖励回报。当涉及到多个智能体时,它们被称为多智能体强化学习系统(Multi-agent Reinforcement Learning System)。

这个领域已经存在几十年,从概念上来讲,它听起来比监督式学习更像是一种合理的创造智能的学习机制。然而,直到 2015 年,DeepMind 才获得了人们的关注,当时 DeepMind 使用深度 Q 学习(Deep Q-learning)创建了 Atari(雅达利) 游戏的智能体,这是一种结合了经典强化学习算法和深度神经网络的算法。2018 年,OpenAI 也通过 解决 Montezuma’s Revenge(一款被认为难度特别高的 Atari 游戏),从而在这一领域确立了自己的地位。

在过去的几个月里,事态升级了:

这些工作重新唤起了学术界对强化学习的信念,在过去,人们曾经认为强化学习效率低下,过于简单,无法解决复杂的问题,甚至连游戏的问题也不能解决。

今年,另一个大受欢迎的应用是自然语言处理(Natural Language Processing,NLP)。尽管研究人员在这一领域工作了几十年,但近些年的自然语言处理系统生成的文本听起来还是不够自然。自 2018 年底以来,人们的注意力已经从过去的词嵌入转移到预训练语言模型,这是自然语言处理从计算机视觉中借鉴来的一种技术。这些模型的训练是以非监督的方式进行的,这使得现代系统能够从互联网上的大量文本中进行学习。因此,这些模型变得“博闻强识”,并发展出了理解上下文的能力。然后,可以通过监督式学习进一步提高它们在特定任务上的表现。这种通过在不同任务上训练机器学习模型来改进模型的做法,属于迁移学习(transfer learning)的范畴,被认为具有巨大的潜力。

自去年 Google BERT、ELMo 和 ulmfit 等系统在 2018 年底推出以来,自然语言处理一直风头正茂,但今年的聚光灯被 OpenAI 的 GPT-2 给“夺走了”,它的表现引发了人们对 自然语言处理系统的道德使用的大讨论。

实践走向成熟

今年,人们也见证了最近一些深度学习技术走向成熟。应用监督式学习,特别是计算机视觉技术,已经催生了现实生活中成功的产品和系统。

生成对抗网络(Generative Adversarial Networks,GAN)是一对神经网络,其中,生成器网络试图通过学习生成模仿训练数据的图像来欺骗判别器网络,现在已经达到了近乎完美的水平。对人工智能来说,创造虚假但又逼真的人物和物体的图像,已经不再是前沿领域了。从 2014 年生成对抗网络的引入 到 2019 年 NVDIA 开源的 StyleGAN,一图胜千言,我们用下面的图片来说明,这可能是理解该领域进展情况的最佳方式:

2019 年,人工智能创造的艺术品甚至脱离了过去几年的假设性讨论,成为了今天 博物馆装置和拍卖 的一部分。

计算机视觉还被应用于一些具有重大商业和社会意义的领域,包括自动驾驶车辆和医学。但是,人工智能算法在这些领域中的应用自然是缓慢的,因为它们直接与人类生活直接互动。至少到目前为止,这些系统还不是完全自主的,它们的目的,在于支持和增强人类操作员的能力。

研究团队正与医院密切合作,开发用于疾病早期预测的人工智能系统,并整理大量的健康数据档案,其中一个值得注意的例子,是 DeepMind Health 和 UCLH 之间正在进行的合作。然而,这些工作中的大部分仍处于试验阶段,迄今为止,唯一获得 FDA 批准的人工智能系统是 SubtlePet,这是一款使用深度学习增强医学图像的软件。

沉睡的巨人

AutoML是机器学习的子领域之一,自 20 世纪 90 年代以来就一直存在,在 2016 年引起了人们的极大兴趣,但不知何故从未登上头条新闻,至少不像其他人工智能趋势那样。也许这是因为它并不那么花哨的性质:AutoML 的目的是通过自动化决策来使机器学习的实践更有效,而今天数据科学家是通过手动、蛮力调优做出的决策。

在过去三年中,我们对这一领域的理解已经发生了变化,今天,大多数大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,随着 学习进化人工智能框架(Learning Evolutionary AI Framework,LEAF)成为最先进的人工智能技术,人们的兴趣转向了“进化”(Evolutionary)方法。然而,AutoML 还没有达到可以让一个完全自动化的人工智能系统比人工智能专家团队执行更好的成熟水平。

对人工智能的担忧

尽管取得了压倒性的成功,但今年人工智能领域也给我们带来了一些令人沮丧的故事。其中主要问题之一是机器学习模型中的偏见,这一问题直到 2018 年才显现出来,当时 Amazon 发现他们的 自动招聘系统中存在性别偏见,而美国法院广泛使用的判决工具 COMPAS 也被发现存在性别和种族的偏见。

今年案件的数量有所增加,这可能表明,公众和机构对用于自动化决策的现有人工智能系统越来越怀疑。以下是图景的一小部分:

今年 10 月份,某医院的算法被发现对黑种人患者存有偏见。 去年 10 月,某人权组织指责用于发放英国签证的人工智能系统存在种族偏见。 今年 11 月,Apple 的信用评分系统被客户指责存有性别偏见。

偏见是一个特别令人担忧的问题,因为它位于监督式深度学习的核心中:当有偏见的数据被用于训练,且预测模型无法解释时,我们不能真正判断出是否存有偏见。迄今为止,学术界的反应一直是致力于开发技术,以了解深度模型决策背后的原因,但专家警告称,如果我们采用正确的实践方法,那么许多问题都可以迎刃而解。Google Cloud Model Cards 是最近的一次尝试,旨在使组织社区走向开源模式,同时明确描述其性质和局限性。

今年另一个让人担忧的发现是,当一项技术变得越复杂时,它被滥用的可能性就越大。Deepfake就是生成对抗网络的阴暗面,深度学习算法被用来在纯粹虚构的场景中创建涉及真实人物的图片或视频。人们不难看出,这项技术如何被用于传播虚假新闻,从政治宣传到欺凌。这个问题单靠科学家是无法解决的,历史已经证明,科学家并不善于预测他们的发现对现实生活的影响,更不用说控制它们了,这需要社会各界进行广泛的对话。

今天的人工智能有多强大?

如今,要量化人工智能的价值真的很困难。但有一点是可以肯定的:人工智能已经脱离了科幻小说和前卫计算机科学的领域,现在,人工智能已成为社会不可分割的一部分,人们对人工智能进行了大量的投资。

今年早些时候,三名主要的深度学习研究人员获得了图灵奖,这是对人工智能作为计算机科学的一个领域的认可,而人们对此期待已久。

免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。

标签: GoogleGemini

“Gemini到OpenAI-从Google-生成式AI研究领域全面综述-Q (gemini郭家毅)” 的相关文章

谷歌Gemini弯道超车-斯坦福Meta华人证明其推理能力超越GPT (谷歌Gemini是什么)

谷歌Gemini弯道超车-斯坦福Meta华人证明其推理能力超越GPT (谷歌Gemini是什么)

此前,谷歌发布的语言模型Gemini似乎在与OpenAI的GPT模型的竞争中处于劣势。最近来自斯坦福大学和Meta的研究人员发表的一篇本文对Gemini进行了重新评估,认为其常识推理能力实际上并不...

谷歌Gemini扳回一局-多模态能力和GPT助力其与ChatGPT竞争 (谷歌Gemini是什么)

谷歌Gemini扳回一局-多模态能力和GPT助力其与ChatGPT竞争 (谷歌Gemini是什么)

谷歌推出的 Gemini-Pro 大语言模型在开放其 API 不到一周的时间内就受到广泛关注。港中文等机构联合发布了一份长达 128 页的评测报告,对 Gemini-Pro 的多模态能力进行了全面...

AI训练数据的争夺战一触即发-谷歌Gemini被指抄袭百度文心一言 (AI训练数据是什么)

AI训练数据的争夺战一触即发-谷歌Gemini被指抄袭百度文心一言 (AI训练数据是什么)

美东时间12月6日,谷歌推出了迄今为止规模最大,能力最强的大模型Gemini。其原生多模态的能力,通过一条约6分钟的展示视频,展现得淋漓尽致,让人不得不感慨它的强大,就连马斯克都评论说,(Gemi...

算法畛域的激战浪潮-AI-引爆大模型竞争-掀起-Gemini (区域算法)

算法畛域的激战浪潮-AI-引爆大模型竞争-掀起-Gemini (区域算法)

谷歌演出了一出那些没有杀死我的,将使我更弱小。 互联网高速开展了几十年,但全环球超越10亿用户的业务或许运行一共没超越20个,而谷歌领有6个。在绝大很多网民意目中,是人类历史上最平凡的公司,...