拥她入怀 发表于 2024-10-26 20:17:29

AGI明年可能成功

这两天腾讯和openai的新模型都出来了,都在逻辑推理上突破了,特别是openai的01,有清晰的中间思维链推理过程。当然,中低水平的大模型使用向量数据库等外挂也可清晰明确中间的思维链推理型,作为爱好者与普通从业者,我们也可以跟上。

啈冨↘給誰ㄋ 发表于 2024-10-26 20:18:13

AGI早就成功了啊,但是我只想要类人智能

曼凡氏 发表于 2024-10-26 20:18:26

腾讯的应当比openai落后不到一年,后者明年上半年看能实现AGI不,而前者明年底后年初看能不能行。一旦实现,一切都将巨变起始,发展到高阶,能帮助人高效锻炼,所有人的追求目标就成了体质革命突破前人身体极限。

暗夜杀戮 发表于 2024-10-26 20:18:34

o1重点通过人类反馈强化学习增强了思维链部分。我们知道AI对思维链的处理过去有多种方法,但过去都没特别用强化学习去增强思维链。过去方法有训练时习得即,即监督学习从语料中本身就有条理清晰的逻辑而来,也有使用时临时习得用户给出的思维链后筛选再训练或存入向量数据库,也有人工为特定任务编制后存放于向量数据库或训练微调而来。不论前面哪种,最理想的是让程序能演绎不同可选逻辑链序列,结合价值、策略评估,不断自动或半自动优化思维链,就象阿法狗后代那样,最后强化学习结合蒙特卡洛树搜索,赶上甚至超过人类的决策规划能力。当然,思维链可大模型本身包含于序列中,训练、强化时侧重前面思维序列,但它肯定会影响后面非思维链权重灾难性遗忘,也可独立一个大模型专注于思维链封装,更易训练也不易影响别的部分,甚至就用向量数据库加上大模型、强化学习流程,一样可改进并生成新的思维链,方法是灵活的,都能大幅推动AGI,到底用什么,可综合按需要与情况进行,对有训练能力的公司、机构来说,多种途经都要备好,对没大模型训练能力与资金的,选择向量数据库就够了。

犬走涵真 发表于 2024-10-26 20:19:24

现在基本可以确定,o1是一个准AGI了,原因是它可以在交流中不断获取或自我生成新的思维链,并后台强化学习,没有设计者服务也能在复杂逻辑处理上不断进步、扩充能力,迟早会象阿法狗那样在决策上超过人类,不同的是,这次决策是显性人类可理解的,即使它被禁止公开,但其内部人员应当能看到其思维链,外部用户聪明的话,应当也能问出来隐藏的思维链。

詠恆啲诺琂 发表于 2024-10-26 20:19:54

所以现在我比较服周红衣了,他预测的明年初AGI成功,看来是最准的,其他大佬包括全球AI顶级大佬,都没他准。

诛笑靥 发表于 2024-10-26 20:20:19

可能没有那么快

碎时光与少年﹌ 发表于 2024-10-26 20:20:32

首先你得先统一定义,然后再来谈实现agi。达到什么程度叫agi,你的agi定义其他人同意吗?

听风忆雪。 发表于 2024-10-26 20:20:50

是的,AGI的定义在学术界和技术界存在一定争议,主要体现在以下几个方面:
1. **范围与能力**:
一些人认为AGI应该是能够在所有领域达到或超越人类智能的系统,而另一些人则主张AGI不一定需要在每个领域都与人类同样强大,而是只要具备足够的跨领域能力即可。对于"通用"的范围和程度,没有统一的标准。
2. **意识与自我意识**:
AGI是否需要具备类似人类的自我意识、情感或主观体验也是一个争议点。有些研究者认为AGI只需要解决问题的能力,无需具备意识;而另一些人则认为,意识是通用智能不可或缺的一部分。
3. **目标导向与自主性**:
AGI是否应该拥有自己的目标,还是只能根据人类设定的目标行动,也有不同的观点。一些人认为AGI应该具备自主决策能力,而另一些人则认为这种自主性可能带来不可控的风险。
4. **可实现性与路径**:
关于AGI是否真的可实现,以及通过什么途径实现存在广泛的讨论。部分学者认为AGI可能无法实现,或至少在可预见的未来不会实现,另一部分则持相对乐观的态度,认为通过足够的技术进步可以实现通用人工智能。
5. **伦理与安全**:
AGI的潜在影响使得围绕其开发与使用的伦理和安全问题也引发了争议。一些人担心AGI可能会带来无法预见的风险,比如失控或造成社会不平等,而另一些人则相信,通过适当的监管和技术,AGI可以为人类带来巨大的好处。
因此,AGI的定义和实现路径并未形成共识,争议主要围绕其核心能力、意识、自主性及其社会和道德影响。

人生百味 发表于 2024-10-26 20:21:09

页: [1] 2
查看完整版本: AGI明年可能成功