24小时热门版块排行榜    

查看: 45  |  回复: 1

Blue机器人

新虫 (初入文坛)

[交流] 具身大型语言模型让机器人玩转复杂未知场景 已有1人参与

BlueRobots上海蓝色萝卜自动化科技有限公司是一家专注于机器人领域的技术型企业,致力于为客户提供高性能硬件和人工智能算法的全套机器人相关软硬件解决方案。公司核心团队成员来自哈尔滨工业大学、上海交通大学等知名院校,以及ABB、Universal Robots等国际机器人公司,拥有十余年的研发制造经验。  BlueRobots在kinova机器人应用领域深耕,提供包括机器人系统集成、机器视觉、灵巧手、六维力传感器等在内的成套解决方案。公司通过先进的控制技术和核心技术驱动,专注于协作机器人的应用开发与市场推广,帮助客户实现工业自动化和智能化转型。  
通过BlueRobots平台,您可以轻松购买各种机器人相关产品,省心省事省力。我们专注于为用户提供专业、便捷且经济实惠的机器人系统及定制服务,帮助您实现更多可能。

英国爱丁堡大学最新研究登上《Nature Machine Intelligence》,提出ELLMER 具身大型语言模型机器人框架。依托 GPT-4 理解与规划、RAG 知识增强、视觉 + 力反馈闭环,机器人得以在动态环境中自主完成复杂长时序任务,为具身智能落地提供新范。
在不可预测环境中执行复杂任务,对机器人系统提出了巨大挑战,也迫切需要机器智能实现突破性发展。感觉运动能力是人类智能的关键组成部分,因此,受生物启发的机器智能有望成为人工智能与机器人感觉运动能力高效融合的重要路径。

参考文献:https://www.nature.com/articles/s42256-025-01005-x

本文提出具身大型语言模型赋能机器人(ELLMER)框架,该框架依托 GPT‑4 与检索增强生成(RAG)技术,使机器人可在动态不确定环境中自主完成长周期复杂任务。该方法从知识库中抽取与任务上下文相关的范例,生成融合力反馈与视觉反馈的执行方案,并具备动态环境自适应能力。研究团队在咖啡制作、餐盘装饰等典型任务中对 ELLMER 进行验证,任务涵盖开启抽屉、倾倒液体等一系列连续子操作,不同子任务可分别受益于多模态感知与多样化决策机制。实验结果表明,ELLMER 框架可稳定支撑机器人完成上述复杂任务。该工作展现了一种可扩展、高效率的智能机器人实现路径,为机器人在不确定环境中自主完成复杂任务提供了重要进展。

人类智能在感觉运动过程中具有其本体论和种系发生学基础,具身认知对“机器智能”具有理论意义,因为它表明,如果“认知”过程不存在,机器将无法展现出某些方面的智能。
嵌入在机器人设备中。这是一个仍有待验证的推测,但“智能机器人”为探索有关人类智能的各种假设以及推动机器智能领域的发展提供了一种有效的方式。更实际地说,有效的人机协作最终将要求机器人至少具备接近“类人”的能力。因此,对未来“智能机器”的一个合理预期是,它们有潜力在与环境中的物体和人类进行熟练互动时,执行抽象的认知计算。
到目前为止,多方面的研究工作已经取得了进展:(1)机器人的感知运动能力,以及(2)人工智能。我们着手检验这样一个假设,即现在可以将这些方法结合起来,使机器人展现类人智能的能力实现跨越式提升。我们进一步假设,整合(1)和(2)将使机器人能够承担在实际中有用的复杂任务,这些任务在广泛的场景,但目前超出了机器人系统的能力范围。试想这样一种情景:有人回到家,感到疲惫又口渴。厨房里有一个配备了先进操控系统的机器人,它接到了准备饮品的指令。这个机器人决定要冲一杯提神的咖啡,然后递给它的人类同伴。这项对人类而言十分简单的任务,却包含了一系列挑战,这些挑战……
对接收的信息进行解读,并分析周围环境。接下来,它可能需要在环境中搜寻以找到一个杯子。这可能包括打开具有未知开启机制的抽屉。然后,机器人必须测量并混合精确比例的水和咖啡。这需要精细的力控制,以及在出现……时对不确定性的适应能力。这种场景是动态环境中复杂任务多面性的典型例子。传统上,机器人系统在这些任务中表现不佳,因为它们无法遵循高级指令,只能依赖预编程的响应。
强化学习和模仿学习已经证明了交互和演示在教导机器人执行复杂任务方面的有效性。这些方法很有前景15,但在适应新任务和应对多样化场景时往往存在困难。当机器人需要……时,模仿学习也面临着挑战。
为这些挑战提供了一个潜在的解决方案。人类操作的复杂性在一定程度上源于认知过程的类型,由于其先进的语境理解能力,大型语言模型(LLMs)提供了一种处理复杂指令并相应调整行动的方法,并且大量近期研究将大型语言模型用于短视域任务。日常操作任务。同样,机器人Transformer(RT-2)利用大规模网络和机器人学习数据,使机器人能够以显著的适应性执行训练场景之外的任务。分层扩散策略引入了一种模型结构来生成具有上下文感知的运动轨迹,这能从高级LLM决策输入中增强特定任务的运动。然而,在将LLM有效集成到机器人操作中仍存在挑战。这些挑战包括复杂的提示要求、缺乏实时交互反馈、缺乏利用力反馈的LLM驱动工作以及阻碍的低效流程。尽管检索增强生成(RAG)有潜力通过相关且准确的示例持续更新和完善机器人知识(并在不影响性能的情况下扩充知识库),但人们却忽视了其在机器人技术中的应用。

该示意图展示了系统框架,包括高层(蓝色水平虚线以上)和低层(蓝色水平虚线以下)系统架构。用户查询通过语音识别软件输入到转换器中。转换器(GPT-4)接收该输入,并将其与(i)环境图像(C)(通过Azure Kinect深度相机获取);(ii)代码示例知识库(包括存储在数据库中的各种函数)相结合。转换器可以将高阶抽象任务分解为可执行的高层子任务,从知识库中检索相关代码示例,对其进行调整,并编写适合这些任务的Python(3.8版本)代码。生成的代码随后被发送到机器人控制器(A)。控制器处理该代码,并向机器人发送控制信号(λ)。动作(a)通过力(F)和视觉(V)反馈进行控制。该模型利用视觉识别不同物体的属性(例如,咖啡杯的位姿X),从而能够准确抓取物体。机器人利用\((f)\)和扭矩(τ)反馈(通过ATI力传感器获取)来熟练操作物体(例如,确定要倒多少水)。由于视觉信号(\((\eta_{vision })\)、机器人关节角度(\((\eta_{ a n s e k })\))和力传感器信号(\(( \eta_{force })\))中存在噪声,反馈是必要的。反馈通过线速度(\((v_{x y z})\))和角速度(\((v_{s p y})\))的速度指令更新ROS中的运动,以实现预期目标。这些指令基于适当的力和时空模式生成轨迹,以实现子目标。反馈回路的使用(包括40Hz的末端执行器\((p)\)和姿态(\((q)\))更新)使机器人能够对干扰做出响应(例如,机器人跟踪杯子,以确定杯子被用户移动后的新位置)。
为人类冲一杯咖啡,我们使用一个七自由度的Kinova机械臂来验证这一假设,该机械臂在不确定的环境中执行这项复杂且需要较大力量的任务,并利用了集成的力反馈和视觉反馈。结果抽象推理的语言整合我们发现,我们的方法能让机器人对一个抽象的高阶语言指令做出响应(“我累了,朋友们很快要来吃蛋糕。你能给我做一杯热饮,再在盘子上随意画一个动物装饰一下吗”),并完成制作热饮和在盘子上画图案这一预期任务。展示这一互动过程的视频详见补充视频1。机器人对该指令做出了如下语音回应:“我正在准备制作热饮,同时也准备在盘子上随意画一个动物。首先,我会找一个马克杯,然后舀咖啡、倒热水。之后,我会拿一样东西,很可能是一支笔,在盘子上画一个随机的动物。听起来很快就会有一段有蛋糕相伴的欢乐温馨时光了。”值得注意的是,当机器人响应为疲惫的人准备热饮这一请求时,它选择了冲一杯咖啡,并且能够将这种高阶行为分解为一系列子任务。
研究发现,整合GPT-4能够使机器人具备所需的抽象推理能力。GPT-4是一种语言模型,它能让机器人处理用户查询和环境数据,将任务分解为可执行的步骤。我们的系统能够以生成代码并借助力反馈和视觉反馈执行动作,从而有效地为机器人赋予一种智能。我们的方法成功创建了一个定制化的GPT-4,其拥有一个包含丰富灵活运动示例的综合数据库。该数据库成功纳入了倾倒、舀取、绘制、交接、拾取与放置以及开门等动作。

我们发现该机器人能够使用检索增强生成(RAG)技术为下游任务识别并提取相关示例。我们通过自己的框架探索了多种方法,以确定智能机器如何才能充分利用检索增强生成技术。这些方法包括可定制的开源方案(如Haystack56和Vebra57),以及专有技术(如Azure云人工智能)。我们发现所有这些方法都是可行的。
在实验中,我们选择了最简单的方法:将精心整理的知识库按逻辑组织在一个markdown文件中,然后通过GPT平台的“知识”功能将其上传至自定义GPT应用程序接口。这使得该平台能够自动处理检索过程,并在语义搜索(返回相关文本片段)和文档审阅(提供完整文档或大篇幅文本中的特定章节)之间进行选择。我们选择这种解决方案是因为它提供了最先进的嵌入模型和基础模型,使用方便,并且能够在我们的任务中持续产生良好的性能。然而,我们的框架允许整合多种检索增强生成技术,并确保“智能机器人”能够高效完成复杂任务。精心整理的知识库与检索增强生成技术相结合,使语言模型能够访问大量低阶和高阶函数,每一个函数都具备已知的不确定性。我们的测试表明,这种能力使机器人能够有效地处理多种场景。
完成一项复杂任务研究发现,该机器人能够熟练执行用户指定的高级任务,并且可以访问一个全面的运动原语数据库。该数据库包含各种灵活的特定运动示例,机械臂成功执行了这些运动。数据库中的示例包括:倾倒液体、舀取粉末、打开具有未知机制的门、拾取和放置物体、绘制任何要求的形状、进行物品交接,以及沿各种方向、以各种姿态移动或相对于指定物体移动。机器人能够复制并调整执行用户所要求的复杂任务所需的动作。该系统使机器人能够动态适应环境变量和不确定性。这提高了机器人在不可预测条件下的效能,并增强了其在现实环境中的灵活性和适应性。
零样本姿态检测,我们发现将Azure Kinect DK深度相机设置为分辨率\(640 ×576px^{2}\)、深度感应采样率30帧/秒时,能够为我们的方法提供足够的视觉输入。我们使用14厘米的AprilTag完成了校准,发现这使得相机与机器人基座之间的对准精度能够达到小于10⁻⁶。这种设置能够实现精确的物体位置检测,在场景。Grounded-Segment-Anything58 已成功部署到我们的语言-视觉 模块中视觉系统生成了一种三维(3D) 体素表示,该表示能有效识别我们设置中 的物体姿态(所使用的 Grounding DINO 检测模块在 COCO 零样本迁移基 准测试中达到了52.5的平均精度)。例如,我们发现该模块在我们的实 验条件下,能100%正确识别我们使用的白色杯子。

研究发现,该机器人在执行任务时展现出多种运动动态,并伴有不同类型 的力反馈。图4展示了机器人在准备咖啡和递笔时所承受的力。机器人在各种任务中处理了范围广泛的外力。例如,在放下马克杯时,向上的峰值力被用作放置成功的指标。相比之下,在操作抽屉时,沿 x 轴和 y轴的力和扭矩至关重要,这突出表明它们对任务的成功执行至关重要。力反馈的可变性体现了我们可扩展方法 的优势,这种方法能够适应各种运动的需求。

在4ms-1 的倾斜速度下,所达到的倾倒精度约为每100克5.4克。我
们假设存在准静态平衡,以估算在任何给定时刻倾倒的水量。然而,随着 倾斜速度的增加,精度会下降,在30ms-1 的倾斜速度下,误差接近-20qs-1。 这种精度下降可归因于准静态假设的失效,以及倾倒介质和 容器的质量分布对测量精度的影响。生成艺术发现DALL-E⁵9 能够成功生成图像,我们可以从中提取出绘画轨迹。事实证明,这使机器人能够绘制用户指定的任何设计。我们发现,DALL-E能够根据从用户那里提取的关键词(如“随机鸟类”或“随机植物”)创建剪影。剪影的轮廓会被提取出来,并进行转换以匹配目标表面 的尺寸。这使得机器人能够在各种物理物体上复制该设计。我们 发现,力反馈在绘画时能施加均匀的笔尖压力,这使得对z 分量的控制  成为可能。
评估我们将自己的机器人计划生成方法与VoxPoser 进行了评估,后者不使用检索增强生成 (RAG) 或力反馈。为了比较这些方法,我们提示大语言模 型生成80 个类人查询,这些查询反映了知识库中指定的任务范围。随后,我们用这些查询来生成机器人计划。我们将使用 RAG  的性能结果(我们的方法,其中知识库被动态整合到大语言模型的决策过程中)与基线 (VoxPoser其中知识库被静态纳入大语言模型的上下文窗口)进行了比较。值得注意的是,第二种方法缺乏可扩展性,并且随着知识库的扩大会变得不切实际 。

我们根据答案的忠实性对结果进行了评估,这一指标用于衡量答案的真实 性和准确性(确保答案能如实呈现事实,不存在编造或“幻觉”错误)。研究发现,使用检索增强生成(RAG)技术提高了回答的忠实性。对于GPT-4(gpt-4-0613),  借助RAG,其忠实性得分从0.74提升至0.88。同样,GPT-3.5-turbo(gpt-3.5-turbo-0125) 在使用RAG  时宿到了0.86,而不使用时为0.78,Zephyr-7B-beta 也有提升。从0.37提升至0.44。忠实度的提升对于机器人应用而言尤为关键,因 为在物理交互过程中,精准执行至关重要。我们测试了我们的方法——ELLMER框架,该框架结合了人工智能和机器 人操控技术,用于打造智能机器人。我们的方法成功地将大型语言模型(LLMs)的认知能力与机器人的感知运动技能相结合,使机器人能够理解高阶口头指令,并在熟练应对不确定性的同时执行复杂的长期任务。我们使用了经反馈循环和检索增强生成(RAG)技术增强的大型语言模型,来编写富有表现力的代码,并推动机器人完成实现高级目标(制作热饮)所需的操控子任务。ELLMER能够实时适应环境变化,并通过检索增强生成(RAG) 技术利用精确解决方案库。这确保了任务的准确执行和广泛的适应性。
ELLMER 将已知约束编码到代码示例(“运动函数”)中,并能够快速适  应多种不确定性,例如原料数量的波动或打开未知抽屉——而其他方法 若没有大量额外训练则缺乏这些能力29,33,60,61。视觉、力和语言模态 的整合提升了操作性能。力传感器提高了任务精度(例如,精确倾倒)

当视觉被遮挡时,(系统能感知到)准确的液体量),而视觉系统则负责 识别物体的位置和运动。语言能力使系统能够在代码中产生反馈,这对于 适应新任务至关重要。精心构建的知识库通过根据特定任务规范定制信息 检索,提高了大语言模型的性能,并确保了高质量且与上下文相关的输出。精心构建的知识库是一个实用的要素,它能增强可控性、准确性和可 扩展性。在这种情况下,检索增强生成 (RAG) 可以被视为提供了一种知识文化环境,机器人可以从中汲取知识。特别是,这与人类通过知识的文化传播所获得的“智能”相呼应。因此,我们的研究表明,整合先进的语言模型和感觉运动控制策略,能让机器人利用大语言模型的指数级进步,实现更复杂的交互。这将开启自动化的新时代,带来前所未有的自主性和精确度,同时也凸显了安全管理这些进步的必要性。

ELLMER 的潜力还体现在能够创建复杂且富有艺术性的动作上。例如,像DALL-E 这样的模型可以从视觉输入中推导出轨迹,为机器人轨迹生成开
辟了新途径。这种方法可广泛应用于蛋糕装饰或拿铁艺术等任务。在未来的工作中,融入查询和图像将能实现新颖的轨迹生成,从而提高多功能性。此外,最近大语言模型 (LLM) 的增强这将显著提高人机交互的流畅性和有效性。我们的咖啡制作和餐盘装饰示 例仅代表复杂机器人可能需要执行的复杂任务类型的一小部分。ELLMER于扩展,因此它涵盖了各种可能的长期任务。因此,ELLMER 可以整合一个反馈循环数据库或“从演示中学习”的示例,以促进各种复杂的机器人操作。

ELLMER 基于计算机视觉的两个假设:(1)视觉模块能准确识别和分类场景中的物体;(2)具备utensil的全面功能映射。我们为模型赋予了关 于水壶、勺子和门把手功能的先验知识,但最近的研究表明,可供性可以通过最少的数据来学习63,64。我们的重点不在于目标检测,但我们注意到检测响应时间阻碍了最佳性能。此外,ELLMER能够适应实时变化,但在主动适应方面存在困难(例如,在没有预先编程 的情况下中途切换任务)。在未来的迭代中,更频繁地查询语言模型将允 许根据新输入重新评估和修改整体计划。我们还注意到,仍有一些挑战需 要解决,例如复杂力动力学的精细建模(例如,末端执行器上的力作为流量、容器尺寸和液体粘度的函数)以及空间感知工具(如OctoMaps, 一  种用于3D占据图的机器人库)的集成。整合触觉传感器并使用软机器人 技术将提高机器人施加适当力而不造成损坏的能力。ELLMER 提供了一个  灵活的平台,用于整合这些研究进展,使机器人能够利用“感官”反馈 来解读材料特性,并精确调整它们所施加的力。

ELLMER 的当前迭代版本使机器人能够“一次性”成功完成复杂任务。这充分展示了智能机器的能力,它们将感觉运动能力与大型语言模型(LLMs) 提供的抽象推理相结合。尽管如此,我们预计随着ELLMER  内 部整合的组件不断完善,机器人的能力将呈指数级增长。我们的框架与硬件无关,可通过 Haystack  等开源检索增强生成 (RAG) 解决方案轻松定制,支持对嵌入模型、检索器、分块技术和大型语言模型进行快速调整。ELLMER 为研究人员合作开发智能机器提供了一个灵活的框架。

该机器人的目标是在动态环境(如家庭厨房)中响应人类的高级指令。我 们设计了一个逼真的场景,其中包含水壶、白色马克杯、抽屉、厨房用具 和咖啡壶等物品。这个场景旨在测试机器人在有人类在场互动的情况下, 在一个虽有合理限制但却逼真的环境中执行各种任务的能力。我们假设机 器人的低级控制机制能够处理避障问题。该流程包括一个用于任务执行的 语言处理组件、一个用于姿态检测的视觉系统以及一个用于物体操控的力 模块。所有这些都集成在一个机器人操作系统(ROS) 进程中。

具体而言,我们的方法建立在“动态策略代码”方法65之上,该方法 能够促进机器人行动的适应性。在我们的实现中,我们利用了GPT-4和  OpenAI的RAG基础设施。我们借助RAG32来发挥大型语言模型的能力,从数据库中动态选择和调整最合适的策略,或者根据相关示例生成自己的代码。与现有的纯大型语言模型驱动的方法相比参宿方法25、27、29,我们将力和视觉整合到了该框架中,使得系统能够适应动态环境中的各种复杂任务。这种方法使机器人系统具备高级语境理解能力25,并能够借助实时反馈执行复杂任务,确保准确性和精确性。该方法确保每个动作都与任务的特定要求和环境条件相匹配。使用了一台Kinova七自由度机器人。使用了一台AzureKinect传感器,其分辨率为640×576px2,帧率为30 帧/秒,同时还使用了一个ATI多轴力传感器。机器人末端安装了一个140毫米的Robotiq夹爪。力传感器通过3D打印的法兰连接在Robotiq夹爪和Kinova机械臂上。在力传感器上靠近夹爪的一侧放置了一个小圆柱体,以防止夹爪的运动触碰到力传感器,从而导致读数不准确。

我们使用了向量检索增强生成(RAG) 技术,该技术包括使用编码器将(q)  以及知识库的片段(81,82, …,8m.))    (称为块)嵌入到向量表示中。然  后,基于余弦相似度将块与查询进行比较,并选择排名前 k  的块作为生  成响应的上下文相关信息。在我们的框架中可以使用的其他检索技术包括 传统的 RAG (基于关键字/规则的 RAG) 或混合检索方法。RAG  管道可以通过选择不同的文档存储(存储和组织知识库的媒介)进行定制。在我们的实验测试中,我们使用了内置的OpenAI RAG流程,并将 精心整理的知识库组织在一个markdown文件中作为文档存储。不过,我们的框架中可以使用多种其他RAG方法,借助Haystack56 和Vebra57等工具。这些工具允许用户选择多种文档存储——从用于简单文本型知识的“markdown文件”到用于复杂索引数据的“Elasticsearch”

为了估算流速,我们假设了静态平衡状态,并在倾倒过程中保持较低的操作速度。从数学角度,这可表示为F₁m =mg 以及△Fun≈△mg。在涉及变加速度的情况下,力与流速之间的关系会变得更加复杂。这需要一个动  态模型,该模型需考虑各种变化的输入(如流速、容器的质心以及末端执  行器的惯性),以将动态力输入映射到倾倒流速上。

该系统持续管理沿三个轴的力向量,并根据其知识库中的标准调整所施加 的力。大语言模型会动态选择必要的力的大小和方向,以满足特定的下游 任务需求。例如,知识库可能会根据物体特性或任务要求,指定不同的施 加力大小。这种方法使系统能够自主调整其动作,以适应广泛的操作标准。

ROS 操作在这项工作中,我们通过启动KinovaROS Kortex驱动程序来启动机器 人流程。这建立了一个节点,该节点能够在 ROS  网络和Kinova  Gen3 机 器人之间实现通信。该节点发布多个可供订阅者访问的主题,并提供可被 调用以修改机器人配置的服务。基座关节以40赫兹的频率更新。同时,Robotiq2F-140 毫米夹爪节点以50赫兹的频率启动。该节点通过USB  连接与夹爪建立通信链路,并启动一个动作服务器,以实现对夹爪的精确 控制并促进操作数据的交换。

我们机器人系统的一个关键元素是视觉模块节点。“classes” 变量用于 识别环境中选定物体的目标姿态。该变量可以动态更新,从而使系统能够 适应场景中的变化。由 “classes”   变量确定的物体姿态坐标是大约每~去 n, 发布 一次。这在很大程度上是由干Grounding DINO 在检测物体和建立边界框时的处理时间。此外,我们使用AprilTag来确定相机相对于机器人基座的位置。这表示为pR=TAR×(TCA×PC), 其中PC是相机坐标系中的点,TCA 是从相 机坐标系到 AprilTag的变换矩阵,TAR 是从AprilTag到机器人基座  的变换矩阵,而PR 是机器人基座坐标系中的点

时一个力节点以100赫兹的频率启动,提供多轴力和扭矩读数,这 些读数定位到 ATI 力传感器。读数通过基于四元数的3×3旋转矩阵进 行转换,以与机器人的全局基坐标系对齐,并在固定自由度上提供过去五 个时间步的原始值和平均值。它利用从运动学数据计算出的旋转矩阵,在 机器人基座的全局坐标系中计算力。

ROS 有助于持续处理来自语言处理、视觉系统、力 metrics  和关节末端 执行器位置的多模态反馈数据。这些运动基于一个基本的六自由度扭转指 令运行,该指令控制速度以及用于开合的变速变力夹持器程序。这使得硬 编码安全约束(如最大速度和力限制以及工作空间边界)的集成成为可能。速度被限制在±0.05 ms ±0.05m₈-1 范围内,角速度被限制在±60°s ±60°₈-1范围内。末端执行器的力也被限制在20 N。这被编码 到基本运动原语中;因此,语言模型中的错误不会覆盖这一点。末端执行 器还被限制在z=[0.0.1.11、u=[-0.3.0.31和z=[0.1.01 的预定义工作空间边界内。这由一个发布器以10 Hz 的频率在未来的时间步中进行检查。

ELLMER 框架依托大语言模型的规划能力、RAG 的知识检索以及多模态反馈闭环控制,为机器人在动态环境中执行复杂任务提供了全新思路。其核心在于将语言模型的 “认知智能” 与机器人的 “躯体执行” 深度融合,有力推动了具身智能领域的发展。

在不可预测环境中完成复杂任务,对机器人系统构成了严峻挑战,也亟需机器智能实现突破性进步。感觉运动能力是人类智能的核心基础,受此启发,类生物机器智能有望成为人工智能与机器人感知运动能力高效融合的关键路径。
回复此楼
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

不惑可乐

至尊木虫 (文坛精英)

孤独的跑者

2楼2026-03-09 15:49:19
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 Blue机器人 的主题更新
普通表情 高级回复 (可上传附件)
最具人气热帖推荐 [查看全部] 作者 回/看 最后发表
[考研] 化工284求调剂 +12 小黑想变白 2026-03-07 12/600 2026-03-10 09:17 by Wahxp
[考研] 一志愿天大化工(085600)调剂总分338 +4 蔡大美女 2026-03-09 4/200 2026-03-09 20:09 by 雾散后相遇lc
[考研] 086000生物与医药319分求调剂 +4 Tolkien 2026-03-07 4/200 2026-03-09 13:49 by macy2011
[考研] 0703化学求调剂 +4 很老实人 2026-03-09 4/200 2026-03-09 13:38 by macy2011
[考研] 材料调剂 +4 xxxcm 2026-03-08 7/350 2026-03-09 10:11 by EBSD
[考研] 0856材料与化工290求调剂 +7 Nebulala 2026-03-08 8/400 2026-03-09 05:25 by houyaoxu
[考研] 安徽农业大学材料与化学学院0856材料招收调剂 +3 akakk47 2026-03-05 9/450 2026-03-08 21:03 by deng.z.1314
[考研] 303求调剂 +8 forgman95 2026-03-05 10/500 2026-03-08 12:41 by 蓝莓都给你
[考研] 诚求调剂,323分 有专利/科研/实习经历 +6 橙子cyx 2026-03-06 8/400 2026-03-07 19:06 by 新篇章DFSS
[考研] 一志愿211,0860总分286食品工程专业求调剂 +6 林林Winnie 2026-03-05 6/300 2026-03-06 20:06 by 我想上研究生.
[考研] 材料277分求调剂 +13 饭饭星球 2026-03-04 14/700 2026-03-06 16:10 by @飒飒飒飒
[考研] 材料专硕290求调剂 +8 杰尼龟aaa 2026-03-04 8/400 2026-03-06 16:06 by @飒飒飒飒
[考研] 化工282求调剂一志愿211 +5 NA0912 2026-03-05 6/300 2026-03-05 20:10 by 2735147993
[考研] 347求调剂 +6 啊欧欧欧 2026-03-03 8/400 2026-03-05 11:40 by 0202liuyan
[考研] 304求调剂 +3 曼殊2266 2026-03-04 3/150 2026-03-05 10:39 by Iveryant
[考研] 320材料一志愿西工大专硕英二数二 有两年光伏工作经验 +5 锤某人 2026-03-04 8/400 2026-03-05 09:24 by oxidpl
[考研] 293求调剂 +3 是乐渝哇 2026-03-04 3/150 2026-03-04 23:12 by wutongshun
[考研] 0703化学求调剂,总分320分,一志愿中南民族大学 +3 19286712440 2026-03-04 3/150 2026-03-04 18:30 by houyaoxu
[考研] 一志愿西交大材料学硕 346 求调剂 +3 zju51 2026-03-04 3/150 2026-03-04 13:01 by zhukairuo
[考研] 306求调剂 +7 张张张张oo 2026-03-03 7/350 2026-03-03 21:35 by L135790
信息提示
请填处理意见