近日,与人工智能(AI)作画相关的话题热卷国内外各大社交软件。自今年上半年开始,加入AI作画赛道的厂商越来越多;在国内有Tiamat、盗梦师、蜜度、百度文心、6Open等,一批公司开始对外推出相关产品,用户只需输入不同的词汇,例如不同的艺术家风格、构图、色彩、透视方法以及修饰词,就能快速得到符合词汇主题的AI画作。用户可以充分发挥自己的想象力,任何一个关键词的变动都可能产出完全不一样的AI作品。
实际上,AI作画这项技术并不新鲜,但是文字转图片这种形式将创作门槛拉得足够低,得以让很多人体验用AI进行艺术创作的乐趣。
AI作画其实在上世纪70年代就已经出现,但因技术与运算效率的原因一直无法普及与应用。真正意义上的AI作画源于一篇名为《Denoising Diffusion Implicit Models》的论文,这篇论文显著改进了原有的AI绘画算法,将AI的出图质量和效率提升了一个大档次。该论文算法的基本原理是,将一张成品图片A“还原”成草稿状态,然后再用此草稿进行线稿细化、上色,从而生成另一张成品图片B,因此A和B之间会具有一定的相似性。
AI作品《太空歌剧院》
去年,OpenAI团队开源了新的深度学习模型 CLIP(Contrastive Language-Image Pre-Training)。这是一个当今最先进的图像分类人工智能。CLIP训练AI做两件事情,一件是自然语言理解,一件是计算机视觉分析。CLIP被设计成一个有特定用途的能力强大的工具,即做通用的图像分类,CLIP可以决定图像和文字提示的对应程度,比如把猫的图像和“猫”这个词完全匹配起来。CLIP模型的训练过程,就是使用已经标注好的“文字—图像”训练数据,一方面对文字进行模型训练,一方面对图像进行另一个模型的训练,不断调整两个模型内部参数,使得模型分别输出的文字特征值和图像特征值能让对应的“文字—图像”经过简单验证确认匹配。据悉,CLIP搜集了4亿个“文本—图像”训练数据,通过这些天量数据的训练,CLIP模型终于成功让“文字—图像”形成了正确的匹配结果,这是当前流行的AI作画的基础。
(照)
近日,北京市智能网联汽车政策先行区(位于北京经开区)颁发自动驾驶无人化第二阶段测试许可,百度、小马智行等企业首批获准在北京开启“前排无人,后排有人”的自动驾驶测试。
据介绍,获得许可后,小马智行10辆测试车将在经开区60km2的核心区内开始全新的测试形式,覆盖亦庄复杂的城区道路场景,有助于安全可控地提升无人化技术验证的效率,并逐步扩大测试规模和范围。
百度方面也表示,首批将投入10辆第五代无人车Apollo Moon开展“前排无人”道路测试。
去年10月,北京市智能网联汽车政策先行区开放自动驾驶无人化道路测试,同时发布全国首个无人化道路测试管理实施细则。实施细则明确将测试划分为“副驾有人”、“前排无人,后排有人”、“车外远程”三个阶段,有序推动智能汽车产业步入整车无人化阶段。该细则从申请条件与审核、测试监督与管理、交通违法与事故处理等角度,对申请主体及测试车辆提出要求。
较于过往的测试形式,“前排无人”、“车外远程”等测试形式有助于自动驾驶企业对极端场景应对、冗余系统方案、远程辅助平台、服务运营体验等给出更为客观的评判,降低司机随时接管车辆的控制权而带来的人为因素影响,获得真实完整的车辆自动驾驶表现数据。
目前,北京市智能网联汽车政策先行区已先后发布了高速公路测试、无人化城市道路测试、示范应用和出行服务商业化试点、无人接驳车道路测试与示范应用等一系列创新管理政策。
(来源:北京日报)