PANews 4月12日消息,在今日举行的Web3香港嘉年华峰会上,阿里巴巴达摩院基础视觉团队总监赵德丽表示,我们的路线图在Text-to-Image方面先后经历过Foundation Models(Composer 1.0)、Customized Generation与Controllable Generation(Composer 2.0) 三个阶段,今年已发布ControlNet、Composer 2.0以及T2I-Adapter。我们的模型有两个创新,分别为视觉数据的使用方式和算法架构的创新。Composer 2.0的可控生成模型加入可控条件,通过对条件的控制达到图像生成和编辑的结果,只要能想象到,都能生成为现实的模型,可以容易地生成与包括NFT在内的原始图像整体语义相似但完全不一样的图像。基于阿里云我们构建了一个“通义万相”产品,将于月底开放给大家。
阿里巴巴将于月底逐步开放文字生成图像产品“通义万相”
评论
推荐阅读
- 2024-12-23
从爆款应用到基础设施,市场对AI Agent的兴趣正在转移
- 2024-12-23
代币经济学探索:AI Agents框架标准要不要发币?
- 2024-12-23
加密板块普遍回调,AI及PayFi板块回调幅度较大,SocialFi及DeFi板块表现相对坚挺
- 2024-12-23
特朗普提名即将离职的a16z合伙人Krishnan为白宫科技政策办公室AI高级政策顾问
- 2024-12-23
从铭文赛道看AI Agent:有哪些潜在发展演变逻辑和投资机会?
- 2024-12-21
一周精选丨AI Agent热度依旧;Hyperliquid生态爆发;BTC跌破10万美元,山寨币血流成河
相关专题