把文本变成画作,AI对艺术“下手”了


把文本变成画作,AI对艺术“下手”了



自然语言处理与视觉处理 , 都重在对不同模态数据所包含的语义信息进行识别和理解 , 但是两种数据的语义表现形式和处理方法不同 , 导致存在所谓的“语义壁垒” , 现在这种壁垒正在被AI打破 。
1月初 , 美国人工智能公司OpenAI推出两个跨越文本与图像次元的模型:DALL·E和CLIP , 前者可以基于文本生成图像 , 后者则可以基于文本对图片进行分类 。 这个突破说明通过文字语言来操纵视觉概念现在已经触手可及 。 自然语言处理和视觉处理的边界已经被打破 , 多模态AI系统正在逐步建立 。
“数据的来源或者形式是多种多样的 , 每一种都可以称为一种模态 。 例如图像、视频、声音、文字、红外、深度等都是不同模态的数据 。 单模态AI系统只能处理单个模态的数据 。 例如对于人脸识别系统或者语音识别系统来说 , 它们各自只能处理图像和声音数据 。 ”中国科学院自动化研究所副研究员黄岩在接受科技日报采访人员采访时表示 。
相对而言 , 多模态AI系统可以同时处理不止一种模态的数据 , 而且能够结合多种模态数据进行综合分析 。 “例如服务机器人系统或者无人驾驶系统就是典型的多模态系统 , 它们在导航的过程中会实时采集视频、深度、红外等多种模态的数据 , 进行综合分析后选择合适的行驶路线 。 ”黄岩说 。
不同层次任务强行关联会产生“壁垒”
就像人类有视觉、嗅觉、听觉一样 , AI也有自己的“眼鼻嘴” , 而为了研究的针对性和深入 , 科学家们通常会将其分为计算机视觉、自然语言处理、语音识别等研究领域 , 分门别类地解决不同的实际问题 。
自然语言处理与视觉处理分别是怎样的过程 , 二者之间为什么会有壁垒?
语义是指文字、图像或符号之间的构成关系及意义 。 “自然语言处理与视觉处理 , 都重在对不同模态数据所包含的语义信息进行识别和理解 , 但是两种数据的语义表现形式和处理方法不同 , 导致存在所谓的‘语义壁垒’ 。 ”黄岩说 。
视觉处理中最常见的数据就是图像 , 每个图像是由不同像素点排列而成的二维结构 。 像素点本身不具有任何语义类别信息 , 即无法仅凭一个像素点将其定义为图像数据 , 因为像素点本身只包含0到255之间的一个像素值 。
“例如对于一张人脸图像来说 , 如果我们只看其中某些像素点是无法识别人脸图像这一语义类别信息的 。 因此 , 目前计算机视觉领域的研究人员更多研究的是如何让人工智能整合像素点数据 , 判断这个数据集合的语义类别 。 ”黄岩说 。
“语言数据最常见的就是句子 , 是由不同的词语序列化构成的一维结构 。 不同于图像像素 , 文本中每个词语已经包含了非常明确的语义类别信息 。 而自然语言处理则是在词语的基础上 , 进行更加高级的语义理解 。 ”黄岩说 , 例如相同词语排列的顺序不同将产生不同的语义、多个句子联合形成段落则可以推理出隐含语义信息 。
可以说 , 自然语言处理主要研究实现人与计算机直接用自然语言进行有效信息交流 , 这个过程包括自然语言理解和自然语言生成 。 自然语言理解是指计算机能够理解人类语言的意义 , 读懂人类语言的潜在含义;自然语言生成则是指计算机能以自然语言文本来表达它想要达到的意图 。
由此可以看出 , 自然语言处理要解决的问题的层次深度超过了计算机视觉 , 自然语言处理是以理解人类的世界为目标 , 而计算机视觉所完成的就是所见即所得 。 这是两个不同层次的任务 。 目前来说 , 自然语言处理在语义分析层面来说要高于视觉处理 , 二者是不对等的 。 如果强行将两者进行语义关联的话 , 则会产生“语义壁垒” 。

推荐阅读