AI的第一位科学家发表了有关ICLR的论文!得分6
发布时间:2025-04-10 09:43
AI的第一位科学家发表了有关ICLR的论文!得分6/7/6,从选择主题到实验,零manu -manu进程,尽管GitHub代码的基础是由AI编写的 来自Aofei Temple Quubits的Bai Jiao |官方帐户Qbitai! AI生成的论文,ICLR研讨会审查传递给了顶级会议?呢分数为6/7/6,超过了人类平均验收阈值。该文件属于江姨。阅读了整篇文章后,图表和论点是完整且众所周知的。其背后的公司Sakana AI是Transformers之一Llion Jones的创业公司。新版本2.0是通用端到端代理系统。与原始版本不同,它将摆脱希望制定模式的希望,能够提出假设,运行实验,研究数据和科学论文的杂志,并且具有更强的理解图表的能力。它在ML领域具有更强的总体功能,并采用了Agentictreseearch由实验管理代理执导。扩展全文 AI生成的论文通过了会议的主要审查 首先,让我们看一下由AI完全形成的本文,该官员揭示了许多细节。 本文的标题是:“组合:增强神经网络概括的意外障碍”。本文提出了一种旨在增强整体神经网络组成的组成正则化方法,进行了大量实验以评估其影响,并评估操作员的复杂性对模型性能的影响,并讨论包装的本地原因为什么调节组合物没有带来预期的好处。 当时,ICLR研讨会同意提交三篇AI生成的论文进行同行评审。 审稿人会说,他们审查的角色可能是AI生成的(43篇论文中的3个),但他们不知道任命为他们的作者是否是AI。 Sakanaai编写的纸完全F由AI的端到端或没有被人们修改 - AI Scientist-V2提出了科学假设,提出了实验,以测试假设,写入和完美的代码进行这些实验,进行实验,研究数据,将数据描述为图形,并写出整个恐怖手稿的每个单词,从标题到完整的单词manuskrit参考,包括图形和所有格式,包括图形和所有格式。 在该过程中,人们所做的一项工作是提供广泛的研究主题,最终他们选择了三篇前三篇论文(考虑差异和质量)来服从研讨会。 △团队为每本生成的论文撰写了全面的评论 最后,提交的三篇论文中有两篇没有达到接受标准。论文的平均标记分别为6.33(6/6/7),排名所有提交的论文的45%,高于人类平均水平的接受度。 但是,为了透明,本文在P之后被撤回EER评论,无法在OpenReview公共论坛上发表,但是GitHub在存储中发现。 此外,他们发现AI科学家偶尔会犯一些引用错误。 例如,Goodfellow(2016)中的不是与正确的作者Hochreiter和Schmidhuber(1997)中的“基于LSTM的神经网络”(1997)。 为了严格通过实验结果提高科学,重复和统计数据的准确性,AI科学家鼓励多次重复其每个实验(在纸面上选择)。 第一AI科学家2.0 去年8月,AI的第一位科学家独立于行动出生并完成了10篇论文。现在,用2.0的论文可以通过领先的同行评审。 值得一提的是,在官方GitHub页面上特别提到了两者之间的区别:AI Scientist-V2不必撰写比V1更好的论文,尤其是在有强大的启动模板可用的情况下。 v1遵循我们LL定义的TEMSPLATE具有更高的成功率,而V2采用了更广泛的探索方法,成功率较低。 V1最适合具有明确目标和坚实基础的任务,而V2则设计用于开放探索。 V1遵循较高成功率的定义良好的模板,而V2采用了更广泛,更大的探索方法,成功率较低。 V1最适合具有明确目标和坚实基础的任务,而V2则设计用于开放探索。 AI Scientist-V2结合了树,发现了LLM工作流程,包括多个阶段,包括自动创意生成,实验实现,图表纪念,手稿写作和评论。 Gumit由代理树搜索(由实验进度管理器管理,涵盖多个阶段)来使用并完善代码的实现。随后的实验使用SEAR中的代码检查点(节点)的最佳性能迭代中的树的CH检验不同的研究假设。 具有变压器启动的设定的人之一 其背后的公司是Bakana AI,是Transformers之一Llion Jones的创业公司。 他毕业于伯明翰大学,并在Delcam,YouTube和Google工作。 Google是他维持最长的公司。 根据Four Fourweekmba的说法,在他以前的工作经验中,他“被Google通过了两次”。 第一次是他毕业并正在寻找工作的时候。尽管他在伦敦担任软件工程师并通过了两次Twistphone采访,但最终与Google相比,他选择了位于英国的CAD/CAM软件公司Delcam。 值得注意的是,在获得Google提议之前,碰巧遇到了2009年的经济危机。狮子弟兄找不到工作,不得不通过收到救济资金来生活数月。 工作18个月后的第二次,他再次收到问他的Google招聘NumbeR如果他想申请,但他仍然没有去Google,但最终加入了YouTube。 在YouTube上的三年软件工程师中,他对人工智能感兴趣,并在课程的机器研究过程中自学。最后,他于2015年加入Google研究所,担任高级软件工程师。 这次,他和其他七个已经提出了Transformer Paper的大众关注的TheSose是您所需要的。 此外,狮子兄弟还参加了许多Google研究,包括Prot Trans,Tensor2Tensor等。 我之所以选择离开Goog​​le的原因是该公司已经发展到一定的规模,使他无法继续他想做的工作。 除了浪费能量来解决其他人的虫子日 - 还必须花时间寻找该公司的资源,并试图访问某些数据。 开展业务后,巴卡纳AI的工作以平稳的方式进行。 上次奥格St,他们首次启动了AI科学家和AI审稿人项目。在此之前,还发布了大型进化模型,并分析了信息NG变压器的内部流动。 作为AI科学家的延续,Sakana AI,UBC和Oxford仍在完成。 合着者包括UBC的康和杰夫·克莱恩(Jeff Clune),克里斯·卢(Chris Lu)和牛津大学的雅各布·福斯特(Jakob Foerster),两位中国人及其导师参加了会议。 UBC(不列颠哥伦比亚省大学)的博士后同伴康卢(Cong Lu)是杰夫·克莱恩(Jeff Clune)的主管。今年2月加入DeepMind。 康(Cong)参加了RGU(罗伯特·戈登大学(Robert Gordon University)),并于2019年获得牛津大学的博士学位。 过去,他采访了Waymo和Microsoft。 克里斯·卢(Chris Lu),他在巴卡纳AI(Bakana AI)呆了6个月,然后从博士学位毕业。 他毕业于加州大学伯克利分校和博士学位。来自牛津大学的一名名为Jakob Foerster的主管。去年10月毕业后,我去了Openai。 电流克里斯(Chris)研究的重要方向是一种ATO应用技术,该技术激发了对元学习和多代理研究的进化。 最后2022年,他成为DeepMind的一名研究科学家。 尽管AI科学家目前可以发表顶级论文,但这不是他们的真正目标。 这次是一个领先的机器研究会议,下次它可以成为领先的日记期刊。 例如,自然,科学和其他事物。 最终,研究小组认为,最重要的事情与人类科学中的智力科学不那么可比,而是它的发现是否有助于人们发展,例如治愈疾病或扩大我们对宇宙法律的理解。 您何时认为这一刻会到来? 参考链接: [1] https://akana.ai/ai-scientist-first-publication/#importance-of-transparency-and-code-code-code of-conduct [2] https://github.com/sakanaaia/ai-cientist-clr2025-workshop-实验?tab = readme-ov文件 [3] https://github.com/sakanaaia/ai-cientist-v2回到Sohu,以查看更多