▲Mood Disorder, David Horvitz, 2012
一个悲伤的动作,会让人联想到沮丧、失落、难过或者气愤等形容词,但是别担心,我们要说的这个动作被使用的方式和场景会让你觉得一点都不悲伤,可能还会觉得有点好笑。
这个动作来自美国艺术家David Horvitz,他在海边给自己拍了这样一张照片,然后把它传到了网络上,给它取名为Mood Disorder(情绪失控)。
正式介绍关于Mood Disorder的内容之前,我要先给你讲一个故事:
这个悲伤的动作来自另一张悲伤的脸,叫作I'm too sad to tell you (悲伤令我无以言表)。
这张脸的主人是Bas Jan Ader (1942-1975),荷兰浪漫派行为艺术家,被称作极度悲伤的艺术家,而他的这张脸也成为了“有史以来人类痛苦情感的最完美展示”。
▲I'm too sad to tell you, Bas Jan Ader, 1971
七十年代初,整个美国被高涨的反战情绪包围着,全国遍地都是大学生们组织的反越战抗议游行,1970年还发生了美国警察向俄亥俄肯特大学参加游行的学生开枪致命的社会事件,整个国家不可开交。
这个时候的Bas Jan Ader已经在加州生活了很长时间,他觉得人们的愤怒只是悲伤的一种表现方式
后来有了这部叫作《I'm too sad to tell you》的作品,而让他这么悲伤的原因也不与交代,整个影片从头至尾只有悲伤这一个行为的过程。
“我觉得人们在妄想快乐之前,必须要先理解什么是悲伤。”
不同的时代,悲伤被理解的方式都不会相同。放在当下,Bas Jan Ader这一段表演之所以完美展示了什么是最痛苦的情绪,
其一是因为原因被故意隐藏,只有“表达”本身;
其二,这三分钟的表演或多或少让人思考一个问题:用“文字”表达极端情绪时,力量究竟有多少?
其三,也是最重要的一点,“公开性”这个概念被加了进来。
现如今极端情绪的形成已经不再重要,
重要的是情绪的表达一定要够公开、够剧烈,
只有在社交媒体上表达过的情绪,
才是“存在过的情绪”。
说到了公开性,我们就可以回到Mood Disorder本身了。
灵感来自美国艺术家David Horivitz为自己拍下了一张照片:以波涛汹涌的大海为背景,他看似痛苦地双手捧住自己的头部。注意,这个“看似痛苦”是我人为补充在这里的。
他把这张照片传到了维基百科“Mood Disorder(情绪失控)”的词条图册里,一发不可收拾。
由于维基百科上的所有信息都是可以免责转载的,于是这张图片被迅速转载,所有关于悲伤、沮丧、消极等情绪的内容经过算法都能在各种推送里与它搭配。
这个表达悲伤的动作也在这个过程中开始变得有些戏谑。我们在这里把搭配的文字标题一并标出。
你是因为嗜酒而抑郁,还是因为抑郁而嗜酒?
重度产后抑郁
如何与一份讨厌的工作共处
美国人真的被工作忙死了
平庸医生大行其道?
如果我永远只能这样了怎么办?
你是因为抑郁而嗜酒,还是因为嗜酒而抑郁?
云和雨
情绪失控小组
在沉默中苟活即在后悔中死去
是不是开始觉得有点搞笑了?
毋庸置疑,现在我们身处的是“读图时代”。
相比于阅读文字,现在读图是人们更喜闻乐见的一种获取信息的方式,我们一夜之间回到了人类最初的低智力阶段,大量信息快速地出现又消失,我们从一开始的来不及筛选变成了拒绝分析,再到现在平均每人在一张网络图片停留不会超过三秒,我们现在连图都“懒得读”了。
如果仔细读一下这张照片:不太平静的海面,一个男人双手抱住了自己的头,没有露脸。
那照片上的内容和Mood Disorder的直接联系到底在哪里?其实联系只是它被上传到了维基百科上的图册里。照片本身的拍摄信息以及原始语境变得一点都不重要了,对它的解读和延展使用是完全由“Mood Disorder”这个词展开的。
我们现在不再从图像中寻找多重现实,而是要面对被多重现实入侵的海量图片,保持冷静,冷眼分析。
那你好不好奇机器的读图方式?
Jenny Odell是位美国艺术家,她做了一个很好玩的项目,叫作“Google Drawing Game”(谷歌绘画游戏),规则是这样的:
1. 手动画一幅小画
2. 把这张画拍下来,拽进谷歌图片反搜功能
3. 把反搜出来的第一个结果再手动画下来
4. 再把这张画拍下来,拽进谷歌图片反搜功能
5. 一直重复
(左面是Jenny手动画的图片,右面是谷歌图片反搜得到的结果)
▲Google Drawing Game部分,Jenny Odell, 2014至今
好像总是在似乎就要抓住规律的时候,谷歌弹出的结果又会令人意外。
简单研究了一下谷歌反搜的运算方式,最关键的技术叫作“感知哈希算法” (Perceptual hash algorithm):为每张图片生成一个指纹(fingerprint)字符串,当图片被搜索的时候,具有和它相似字符串的图片就会蹦出来。具体流程是把每一张照片缩小到8x8像素的尺寸,总共64个像素,然后再转成64级灰度。通过比较64个灰度值与平均值的高低从而构成一个64位整数,这个就是这张图片的“指纹”。
这是机器的“读图”模式,用时不到一秒。
希望我们人类的“读图”行为可以更复杂些。不然,再“悲伤”的动作或表情,都能把人逗乐。
编辑:储舒婷
责任编辑:唐闻佳
来源: 3standardstoppage、公路商店