数年前的这个月,俄勒冈州波特兰市的艺术家大流士卡齐米观看鸣叫从想成为小说家洪水。十一月是全国小说写作月,正值人们盘腿坐下在几个星期内跨度生产出50,000多字。到Kazemi的,一个计算艺术家的是优选的介质的Twitter机器人,满面轻度曲折的概念。 “我想我绝不会那样做,”我说。 “但是,如果一台计算机能为我做的,我想给它一个镜头。”

卡兹米被红牌罚下鸣叫为此,和志同道合的艺术家的社会立即采取行动迅速。他们建立一个 repo on Github,人们可以在哪里发布他们的项目和交换思想,工具和几十人着手编写代码,将写入文本。卡兹米没有通常产生一种新型的规模工作;我喜欢的140个字符的精髓。所以我在那里开始。我写了一个程序,某些抓起鸣叫装修模板的一些(通常subtweets)提出问题,并合理的答案,从其他地方Twitterverse。它的一些有趣的对话作出,但古怪不满足。因此,良好的措施,我已经从网上的梦想日记节目抢项目,并点缀他们的谈话间,仿佛人物都陷入神游状态。我把它叫做 青少年流连房子. 第一“小说”来实现的。

因为首先它已有六年 NaNoGenMo - 这就是“代”来代替“的写作。”没有太大的改变精神,卡兹米说,虽然事件已扩大远远超出了他的朋友圈。 GitHub的回购充满了数百个项目。 “新型”被宽松地定义。一些与会者重拳出击的经典叙事一个有凝聚力的,人类可读的故事硬编码到正式结构他们的程序。大多数人没有。经典小说算法转化成混成曲超现实的;维基文章和微博聚集和情绪安排,混搭起来奇怪的组合。一些尝试视觉艺术字。至少有一人将在做一个变化上不可避免地“喵,喵,喵......” 50000次。

“这很重要。”卡兹米说。其实,这是GitHub的欢迎页面上的例子。

但有一两件事,改变的只是工具。新的机器学习模型,培训了数十亿美元的话,有能力考虑电脑生成的文本的声音更类似人类的比当卡齐米开始了。该模型被训练按照统计模式在语言,学习语法的基本结构。它们产生的句子,甚至段落是完全可读(语法,至少),即使故意缺乏意义。本月初, openai发布GPT-2,在这样的最先进的机型,供市民食用。你甚至可以微调系统产生特定的风格,田园诗诗, New Yorker articles俄罗斯误传为龙头,以各种有趣的扭曲。

GPT-2不能写小说;即使不是外表,如果你想奥斯汀或弗伦岑。它可以失去线程之前勉强摆脱了一句。但它仍然证明了一个流行的选择在80左右,到目前为止开始nanogenmo ESTA年项目。一个人产生了一本诗集从纽约六个小时的飞行到洛杉矶。 (也是该项目强调了培养出这样的语言模型所涉及的高额碳排放量。)詹妮尔巴蒂尔,知道她的创作实验与尖端的AI程序员,推特上关于她遇到的挑战。一些GPT-2句是如此精心设计的想知道她是否他们是剽窃,从训练数据集直弹拨。否则,计算机起行成通常的沉闷重复或一个域“不理解的超现实主义”。

“不管你有多少与你的小说中挣扎,你可以在实际上至少需要安慰ai的那更是苦苦挣扎,” she writes.

“这是一个有趣的技巧,使文本具有ESTA对外逼真的外观,”佳佳帕里什,他在纽约大学教计算创造力说。但是从审美的角度来看,GPT-2似乎并没有有更多的比旧的机器学习技术的说法,她说,甚至马尔可夫链,已在文本预测自1940年以来一直使用,香农当第一语言的声明是信息。从那时起,艺术家们已经利用这些工具做出断言,帕里什说,“这种语言无非是统计数据。”

Advertisement

许多帕里什的学生计划工作,GPT-2,作为在计算叙述一个疗程结束nanogenmo项目的一部分。有什么不妥,她说;先进的AI又是创造性的代码实验的另一种工具,像巴蒂尔的工作证明。她只是认为它可能是一个挑战,气韵,鉴于诱惑,几行送入GPT-2,让读者在图案一些更深层次的意义神圣的。人类毕竟,慈善解释的生物。

LEARN MORE
500 Internal Server Error

Internal Server Error

The server encountered an internal error and was unable to complete your request. Either the server is overloaded or there is an error in the application.

人工智能

有很多方法来提升代码生成的文本。一种方法是在九月一些界限。对于今年的活动,尼克·蒙特福特,在麻省理工学院数字媒体教授,想出的概念 Nano-NaNoGenMo,以产生新的长度的一个挑战的工作原理使用的代码段不超过256个字符。这让人回想起了cypherpunk是,我说,实行种上他们准将64S-没有通话限制编码器在20世纪80年代处理的是看中机器学习代码。怀旧之余,蒙特福特是代码和数据集,你可以阅读和解释风扇。我倾向于避免新的语言模型的黑盒子,产生哪些根植于大规模数据集的统计变幻莫测文本。 “我期待着阅读的代码以及小说,”我说。 “我不读小说彻底计算前面回来。”

从字面上去掉,在某些情况下。蒙特福特出版并绑定到nanogenmo一些小说,其他印刷机由底层代码rejiggering其他语言文字产生最终“翻译”。他的 第一次提交出身的书,早在2013年,建造了一系列的小插图的一天,设置在不同的城市的每一个瞬间,并调整时区。在每一个字符读取普通的文本,在谷类食品盒的背影,药品标签。我用165行Python代码写过来了几个小时。他的下一个努力建成过塞缪尔·贝克特的小说, Watt, 这是如此令人费解,几乎全文计算机化。我认为,通过他自己的版本生成,通过寻找合适的功能和模式来扩充,他有可能成为贝克特的更好的读者。

今年,蒙特福特的纳米意见很简单。 (其中一人从第一人称代词删除 Moby Dick。)这是一个好处,我说,因为它鼓励nanogenmo留初学者友好的,在概念和执行既便于项目。 “你不会被认真研判,并根据你做什么关机,”我说。 “人们不会停止邀请您诗歌朗诵会”。

称取心脏的情绪,想成为新的发电机。是的,十一月是一半以上。是的,有很多是五万字。但不要担心,你有一台计算机,以沿帮助的事情。美妙的事情 - 和可怕 - 事物有关计算​​机的是,他们可以吐出的东西很多,速度快。卡兹米是救了他的最后一分钟进入了。我宁愿放手的做法,没有后期制作的调整除了一些格式化,并尝试新的工具。他期待看到什么我可以使用GPT-2。

帕里什仍处于计划模式了。考虑到她的重写 爱丽丝漫游仙境, 在其中的文字,被某种统计表示,图取代。会是什么模样? “我还不知道,”她说。有趣的部分是发现。


更伟大的故事,有线