PANews 4月12日消息,在今日舉行的Web3香港嘉年華峰會上,阿里巴巴達摩院基礎視覺團隊總監趙德麗表示,我們的路線圖在Text-to-Image方面先後經歷過Foundation Models(Composer 1.0)、 Customized Generation與Controllable Generation(Composer 2.0) 三個階段,今年已發布ControlNet、Composer 2.0以及T2I-Adapter。我們的模型有兩個創新,分別為視覺數據的使用方式和算法架構的創新。 Composer 2.0的可控生成模型加入可控條件,通過對條件的控制達到圖像生成和編輯的結果,只要能想像到,都能生成為現實的模型,可以容易地生成與包括NFT在內的原始圖像整體語義相似但完全不一樣的圖像。基於阿里雲我們構建了一個“通義萬相”產品,將於月底開放給大家。