ChatGPT的基本概念在某种程度上相当简单。从网络、书籍等人类创造的大量文本样本开始。然后训练一个神经网络来生成“像这样”的文本。特别是,让它能够从一个“提示”开始,然后继续生成“像它被训练过的那样”的文本。
正如我们所看到的,ChatGPT中的实际神经网络是由非常简单的元素组成的,尽管有数十亿个元素。神经网络的基本操作也非常简单,主要是对它所生成的每一个新词(或词的一部分),通过其元素“传递一次输入”(没有任何循环,等等)。
但出乎意料的是,这个过程可以产生成功地“像”网络上、书本上的文字。而日 它不仅是连贯的人类语言 它还“说了些什么”,“按照它的提示”利用它“读”到的内容。它并不总是说“全局有意义”(或对应于正确的计算)的事情——因为(例如,在没有获得Wolfram|Alpha的“计算超能力”的情况下),它只是根据训练材料中的事情“听起来像”说了一些话。
ChatGPT的具体工程使它相当引人注目。但最终(至少在它能够使用外部工具之前),ChatGPT“只是”从它所积累的“传统智慧的统计数据”中抽出一些“连贯的文本线索”。但令人惊讶的是,其结果是如此的像人。正如我所讨论的,这表明了一些至少在科学上非常重要的东西:人类语言(以及它背后的思维模式)在某种程度上比我们想象的更简单,更“像法律”。ChatGPT已经隐晦地发现了这一点。但我们有可能通过语义语法、计算语言等明确地暴露它。
ChatGPT在生成文本方面所做的工作令人印象深刻,而且其结果通常非常像我们人类会产生的东西。那么,这是否意味着ChatGPT的工作方式就像一个大脑?它的底层人工神经网络结构最终是以大脑的理想化为模型的。而且,当我们人类产生语言时,似乎很有可能发生的许多方面都很相似。
当涉及到训练(又称学习)时,大脑和当前计算机的不同“硬件”(以及,也许,一些未开发的算法想法)迫使ChatGPT使用一种可能与大脑相当不同(在某些方面效率低得多)的策略。还有一点:即使与典型的算法计算不同,ChatGPT内部也没有“循环”或“对数据进行重新计算”。而这不可避免地限制了它的计算能力——即使与目前的计算机相比也是如此,但与大脑相比肯定是如此。
关于我们
我们是一家专注于分享国内外各类行业研究报告/专题热点行业报告/白皮书/蓝皮书/年度报告等各类优质研究报告分享平台。所有报告来源于国内外数百家机构,包含传统行业、金融娱乐、互联网+、新兴行业、医疗大健康等专题研究.....目前已累积收集近80000+份行业报告,涉及众多大板块,多个细分领域。
内容涵盖但不限于(市面上有的基本都有):
1、互联网运营、新媒体、短视频、抖音快手小红书等等;
2、房地产、金融、券商、保险、私募等;
3、新技术(5G)、金融科技、区块链、人工智能类;
4、电子商务、市场营销、运营管理、麦肯锡、德勤等;
5、快消品、餐饮、教育、医疗、化妆品、旅游酒店、出行类等;
免责声明:
本平台只做内容的收集及分享,报告版权归原撰写发布机构所有,由圣香智库社群通过公开合法渠道获得,如涉及侵权,请联系我们删除;如对报告内容存疑,请与撰写、发布机构联系。