海外new things |「Flower lands」pre-seed轮融资360万美元,利用联邦学习方法训练大语言模型
【资料图】
据外媒Techruch报道,初创人工智能公司「Flower lands」近期宣布完成360万美元的pre-seed轮融资,由深度科技风险投资公司First Spark Ventures、Factorial Capital、Betaworks和Pioneer Fund等投资。该轮融资将用于扩大Flower的研发核心团队、加速开源软件的开发,为Flower的框架和生态系统提供动力。公司旨在解决AI模型训练工程中对公共数据(主要是网络数据)的依赖,并在近期推出训练大语言模型(LLM)的联邦学习方法——FedGPT。
Flower lands的创始人——剑桥大学(University of Cambridge)的科技企业家兼科研工作者丹尼尔·贝特尔(Daniel Beutel)提出观点:人工智能模型训练过程对公共数据(主要是网络数据)的依赖阻碍了人工智能领域的发展。他在电子邮件采访中告诉TechCrunch说:“公共的、集中的数据只是世界上所有数据的一小部分。相比之下,分布式数据存储在手机、可穿戴设备和物联网设备上的分布式数据和存储在企业内部业务部门等组织孤岛上的数据要大得多,也要全面得多,但今天的人工智能还无法触及。”
由此,Beutel于2020年与剑桥同事Taner Topal、三星剑桥人工智能中心前负责人Nicholas Lane共同创建了Flower,旨在通过一个平台进行“去中心化”的人工智能训练过程。该平台允许开发人员根据分布在不同地点、不同设备中的数据训练模型;同时,依靠联邦学习(Federated Learning)技术,Flower不提供对数据的直接访问,能够满足用户隐私保护、数据安全、数据保密和政府法规的要求。
联邦学习技术在2016年首次被学术界提出,其旨在解决联合存在于多个终端(例如移动手机)中的数据进行中心化模型训练的问题,即利用分布式数据训练AI模型。如今,DynamoFL、DataFleets和Sherpa等初创公司和谷歌等大型科技公司正在采用某种形式的联邦学习训练人工智能模型。
X 关闭
- 太阳能