视觉大模型是目前市场上的热点,但视觉大模型需要深度学习和自然语言处理等领域的专业知识,这使得大型模型的应用局限在专业领域内,难以普及到更广泛的用户群体中。
在使用视觉大模型生成效果的过程中,往往由于用户不了解如何构建有效的提示文本,导致生成的结果可能不符合他们的期望或需求,从而减弱了大模型的实用性。
鉴于此,美图于10月9日推出的视觉大模型MiracleVision3.0版本,特别降低了用户使用门槛,同时增强可控性和精确性,更便于大众用户体验视觉大模型。
现场视频显示,MiracleVision的“提示词智能联想”功能和“提示词精准控制”功能,可以让用户的“奇思妙想”,所想即所得。
有现场记者表示,这项功能大大降低了用户写提示词的门槛,进一步推动了“创作平权”。
此外,“可控性”一直是衡量模型效果的重要指标。现场演示显示,MiracleVision可以做到对提示词的精准控制,满足更加专业的设计要求。
例如,用户想要一张面带微笑的女生模特图,提示词精准控制可以对镜头远近,光影效果等专业词汇做到精确的识别。专业用户可以通过“近景”、“远景”、“顺光”、“逆光”等描述控制生成最终的效果,以满足不同专业场景的要求。
用户还可以选择对画面中某一部分进行圈选,使用“局部修改”功能,进行精细的局部再次生成,让AI更具备可控性。
而在画质呈现层面,通过“分辨率提升”功能,用户可以生成高清大图,无论是细节表现、色彩展示,还是物体辨识,都将更加精准和生动。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。