摘要:证监会科技监管局局长姚前撰文称,除算力瓶颈之外,训练数据将成为大模型产业化的最大掣肘之一。从更深层次考虑,大模型在训练数据方面还存在各种治理问题。为此,作者提出来三点建议,一是重点发展基于AIGC技术的合成数据产业,二是构建大模型训练数据的监管体系,三是探索基于可信机构或基于可信技术的数据托管方式。(中国金融杂志)
图片来源:由无界AI绘画工具生成。
苹果新专利:通过对象检测算法为用户提供定制虚拟化身服务
3 月 7 日消息,近日,美国专利商标局公布了一份苹果公司的专利申请,该专利申请涉及下一代虚拟化身/Memoji 定制,允许用户定制眼镜、帽子或其他配件,并通过机器学习过程集成到 Memoji 中。更具体地说,该专利声明“在一些实施方案中,一种或多种计算机视觉(CV)和/或其他启用机器学习(ML)的目标检测算法可应用于注册图像”。
在苹果的专利背景中,他们指出虚拟化身可以提供一定程度的隐私,同时仍然允许用户控制他们的在线身份。作为一种自我表达的手段,许多用户可能希望定制自己的化身,以显示反映用户实际外观的物理特征。用户还可以用各种配件来定制自己的化身,如服装、眼镜、头饰等,这可以反映用户的个人风格、时尚品味和/或现实生活中的外观。
微软将ChatGPT整合到更多工具中,不用写代码就能开发应用
3 月 7 日,据新浪科技报道,微软公司将 ChatGPT 背后的技术整合到其 Power Platform 平台上,允许用户在几乎不需要编码的情况下,就能开发自己的应用程序。微软表示,其 Power Platform 平台上的一系列商业智能和应用程序开发工具,包括 Power 虚拟代理(Power Virtual Agent)和 AI Builder,均已更新 ChatGPT 功能。Power 虚拟代理是一款供企业构建聊天机器人的工具,如今可以连接到公司内部资源,生成周报和客户查询的摘要。此外,微软还为 AI Builder 和 Dynamic 365 添加了 ChatGPT 技术,前者允许企业自动执行工作流程,后者是一个业务管理平台。
美 SEC 正增加员工人数,重点调查 DeFi 平台、NFT 和稳定币等违反证券法的行为
据福布斯 3 月 7 日报道,美国证券交易委员会(SEC)正在增加员工人数,增强审查、调查、审计、检查和可能起诉与这些新加密产品和交易活动相关的证券法违法行为的能力。新增的工作人员将包括监管人员、调查人员律师、欺诈分析师和出庭律师,重点调查以下方面违反证券法的行为:加密资产发行、交易以及借贷和质押产品;DeFi 平台;NFT 和稳定币。
市场调查机构:英伟达可从 ChatGPT 赚取 3 亿美元
3 月 7 日,市场调查机构 TrendForce 集邦咨询公布的最新报告指出,如果以英伟达 A100 显卡的处理能力计算,运行 ChatGPT 将需要使用到 30000 块英伟达 GPU。目前英伟达 A100 显卡的售价在 10000-15000 美元之间,该售价取决于 OpenAI 需要多少显卡,以及英伟达是否会为 AI 公司提供订单折扣。TrendForce 预估英伟达可以赚取超过 3 亿美元。
外媒:亚马逊预计将于 4 月 24 日推出 NFT 平台
据 Thebigwhale 报道,电商巨头亚马逊预计将于 4 月 24 日推出其 NFT 平台,此次发布将推出约 15 个系列。此前据 Blockworks 报道,四位消息人士称,亚马逊正在推出一个数字资产企业,NFT 计划预计将在春季推出。
《姚前:ChatGPT类大模型训练数据的托管与治理》
ChatGPT的主要魅力在于,它利用从互联网获取的海量训练数据开展深度学习和强化学习,可以给用户带来全新的“人机对话”体验。海量训练数据可谓是维系ChatGPT进化的核心要素之一。有研究预测,按照目前的发展速度,到2026年ChatGPT类大模型的训练将耗尽互联网上的可用文本数据,届时将没有新的训练数据可供使用。因此,算力瓶颈之外,训练数据将成为大模型产业化的最大掣肘之一。
https://www.8btc.com/article/6807648
《投资者:AIGC是现阶段重点投资领域,整体乐观,但出手谨慎》
AIGC看了有半年了,到现在为止都没看到合适的项目。”聊起近来的投资方向,一名北京的投资人冯奇(化名)略显遗憾地告诉《科创板日报》记者。冯奇说,他所在的机构从去年stable diffusion开源以后,就一直在关注AIGC领域,尤其在ChatGPT出现之后,对于生成式AI,大家基本形成了共识,“这是一个重要的、有机会的市场”。
https://www.8btc.com/article/6807594
《Meta版ChatGPT开源代码遭泄漏,开发者称新 AI 大模型推理速度优于GPT》
3月5日,一位名为@Enryu 的开发者在Medium平台发文,比较了LLaMA和ChatGPT在多个开发挑战任务中的效果。结果显示,LLaMA训练过程算法大部分比ChatGPT训练更快、更便宜。他认为,与ChatGPT相比,LLaMA架构更小,但训练过程和单GPU(图形处理器)芯片推理速度更快,成本更低,而且该库还支持所有LLaMA模型架构,用户可对模型进行微调等。
https://www.8btc.com/article/6807678
巴比特园区开放合作啦!
中文推特:https://twitter.com/8BTC_OFFICIAL