
qi mingxing | 3 Qiming Capital Business Elites被选为中国35岁以下35岁以下的“ MIT技术评论”清单
最近,正式发布了2024年“ MIT技术评论”中“ 35人35人的科学和技术变化”列表。该列表不仅宣布了年轻才华的眼光中未指定的变化火花,而且还记录了火花如何开始成为世界上时间(到世界上时间)的潜在能量。清单中包括三个Qiming风险投资企业的精英。他们是北北京大学的助理教授,Galaxy General Motors的创始人兼首席技术官员Dai Guohao,上海Jiaotong大学副教授,Wuwen Xinqiongchen的联合创始人兼科学家Zhang Xiangyu,首席科学科学科学科学jieyuexingchen。齐恩(Qi Yuan),福丹大学(Fudan University)的著名教授,上海科学与情报学院院长,无限李的创始人GHT年,被邀请担任法官。 Si Wang He(企业),Katulong na提议北京大学,Punong Opisyal opisyal ng Teknolohiya ng Galaxy Garaxy Genalesy Motors,Dai Guohao(先驱者),首席科学家Ng Wuwen Xinqiong,Zhang Xiangyu(Pioneer)的首席创始人,tao napioneer) ilalim ng 35 Science and Technology Innovation" List of China Wang He (32 years old), assistant professor of Peking University and hiding and hiding and Chief Technology Officer of Galaxy General Motors, he used synthetic data to develop the first end-to-end embossing basic model to break the bottleneck of data and generalization, and expected to promote large-scale components of general robots. Wang Ho是专注于GEMOT的研究,它通过AI技术使机器人具有普遍性,使他们能够在复杂的环境中完成艰巨的任务,从而应对社会挑战,例如积累和缺乏劳动。解决数据不足的问题他在体现智力领域的高收集成本,他建立了高精度的物理学和高诚实的体现的合成数据,促进了对体现技能的一般研究以及体现大型模型的发展,并产生了一般收购,赌博的端到端的大型端到端大型和其他成果的大模型和其他大型模型和其他整体成果,并进行了其他成果。他提出了大型级别的明智的大型手数据集dexgraspnet,这将模拟数据生成的效率提高到了50次。基于这一组,他开发了UnideXgrasp ++算法,以在速率上取得很高的成功率并获得数千件事。他还发布了一个名为Graspvla的端到端压纹基本模型。在训练前过程中,该模型使用数十亿帧的“视觉语言 - actio” 100%基于合成的大数据n“对掌握了概括闭环抓地力的能力,以及在没有大尺寸实际数据的主要模型的预培训的能力上。通过小样本进行微调,主要的“通才”可以在指定情况下的“专家”中迅速增长。该技术的路线在这项技术的路线中具有许多优势,包括大型数据,高成本,高成本,高级公司。 Dai Guohao,上海Jiaotong University的副教授,Co -Indounder兼首席科学家Wuwen Xinqiongthis -Scale -Scale计算的优化的硬件和软件合作可显着提高人工智能中的人工智力的一般人工智能,尤其是人工智能,尤其是人工智能的能力庞大的计算DEM随之而来的是导致计算优势不足和高能消耗问题,这成为进一步发展人工智能行业的主要挑战。 Dai Guohao长期以来一直专注于广泛的计算和InteractionsOftware和硬件的研究。他的主要思想是基于先验驱动的结构化研究,该研究由机器研究和平行结构中的细粒度驱动。通过减少任务的量并改善硬件的使用,它可以超越高端流程,并具有低芯片技术和峰值计算能力的高计算硬件硬件,并通过一系列幅度序列提高计算效率的计算效率和能源效率的一般人工智力智力的能力。 2023年,Dai Guohao作为联合创始人创立了Wuwen Xinqiong,重点是加速这些稀疏计算技术的工业化,以解决较大尺寸计算的问题实用应用程序的能力。根据有关软和困难协作的基础研究,Dai Guohao扩大了各种异源行业的规模,并改善了人工智能期间一般可用的计算能力池。目前,已经启动了一系列终端和云智能解决方案,包括对Megrez-3b-Omni终端模型的全模式理解,终端端端动态稀疏引擎指定器,第一个自定义的大型语言模型LPU IP Flightlm以及可以自定义的LPU IP Fliepvgm等视频世代的型号。在云方面,它包括推理引擎flashdecoding ++,半PD调度系统的半分离调度以及对FlashoverLap加速系统的解决方案。他意识到了终端和云中许多芯片中大型算法模型的协调扩展和运行,这为不完整提供了基本的技术支持AGI期间计算和可持续发展的力量。 Zhang Xiangyu(34 -year -old)首席科学家张桥(Zhang Xiangyu)提出了最早的多模型架构之一,其中包括图形和文本生成和理解,并释放了中国第一个具有1000亿参数的本地多模型。 Zhang Xiangyu专注于研究一般神经网络的设计方法,培训和优化,并继续改善模型的实用性和智力。他建议repvgg。通过引入重新聚集化的想法,可以使用更复杂的结构来实现训练期间的高精度,并且在理解的阶段,返回简单效果(例如VGG)以促进硬件识别是等效的。随后,基于重新参数化的思想,通过对现有视觉变压器(VIT)机制的深入研究,张木寿岛提出了超大的卷积内核结构rEPLNET,性能与主流VIT的性能不同,并且具有简单易于部署的结构。 Zhang Xiangyu目前是大型模特公司Jie Yuexingchen的首席科学家。由于许多大型模型公司选择在不同的起点使用大型Wipagara模型,因此该公司直接根据交错的语料库实践本地多模式的图形和文本。他提出了行业中最早的多模式大型架构之一,其中包括图形和文本生成和理解 - Dreamllm多模式大型模型框架。基于此框架,Guide-1V是中国首个1000亿个参数的本地多模式模型,几乎与Google的第一个类似型号Gemini 1.0发行了。多模式理解的能力明显高于当时行业中语言愿景分离的基本结构。之后,他们还释放了万亿帕拉姆Eter MOE基本模型,第二个视频视频发电的视频生成,1O对模型的三模式理解以及步骤R-Mini模型等(从:Qiming Venture Capital印刷)