DL之RNN:人工智能为你写歌词(林夕写给陈奕迅)——基于TF利用RNN算法实现【机器为你作词】、训练&测试过程全记录

简介: DL之RNN:人工智能为你写歌词(林夕写给陈奕迅)——基于TF利用RNN算法实现【机器为你作词】、训练&测试过程全记录

输出结果


1、test01


你的背包

一个人过我 谁不属了

不甘心 不能回头

我的背包载管这个

谁让我们是要不可

但求跟你过一生

你把我灌醉

即使嘴角从来未爱我

煽到你脖子

谁能凭我的比我

无赏

其实我的一切麻痹 我听过

不能够大到

爱人没有用

你想去哪里

如果美好不变可以

我会珍惜我最爱

我想将

鼓励爱你的

为何爱你不到你

我会加油工作争取享受和拼搏

三餐加一宿光档也许会寂寞

你想将

双手的温暖附托是你不知

但无守没抱过

不影响你不敢哭

其实没有火花 没抱动

不能够沉重

从来未休疚不够你不会

请你 这些眼发后

没有手机的日子

2、test02


谁来请你坐

全为你分声不需可怕

没有人机有几敷衍过的

难道再侣 被不想去为你

不如这样

你不爱你的

没有人歌颂

全一边扶暖之远一天一百万人

拥有殿军我想到我多 你真爱

从来未爱我 我们在

我有我是我们憎我 我不属于我

我想将

你的背包

原来不能回到你一起

难道我是谁也爱你 要不属力 不知道明年今日

明年今日 不是我不得到

爱你的背上我要

从来未不肯会 就要你不有

我会拖手会不会

难道我跟我眼睛的错 

全为这世上谁是你

不够爱你的汗

谁能来我的比你闷

不具名的演员没得到手的故事

不够含泪一个人 这么迂会

我们在

3、test03


谁来请你坐

全为你分声不需可怕

没有人机有几敷衍过的

难道再侣 被不想去为你

不如这样

你不爱你的

没有人歌颂

全一边扶暖之远一天一百万人

拥有殿军我想到我多 你真爱

从来未爱我 我们在

我有我是我们憎我 我不属于我

我想将

你的背包

原来不能回到你一起

难道我是谁也爱你 要不属力 不知道明年今日

明年今日 不是我不得到

爱你的背上我要

从来未不肯会 就要你不有

我会拖手会不会

难道我跟我眼睛的错 

全为这世上谁是你

不够爱你的汗

谁能来我的比你闷

不具名的演员没得到手的故事

不够含泪一个人 这么迂会

我们在

模型监控






训练、测试过程全记录


1、训练过程


2018-10-14 07:31:33.515130: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2

step: 10/10000...  loss: 5.9560...  0.1500 sec/batch

step: 20/10000...  loss: 5.8495...  0.1300 sec/batch

step: 30/10000...  loss: 5.6970...  0.1600 sec/batch

step: 40/10000...  loss: 5.5893...  0.1300 sec/batch

step: 50/10000...  loss: 5.4582...  0.1300 sec/batch

step: 60/10000...  loss: 5.3003...  0.1400 sec/batch

step: 70/10000...  loss: 5.2871...  0.1600 sec/batch

step: 80/10000...  loss: 5.3841...  0.1500 sec/batch

step: 90/10000...  loss: 5.2470...  0.1400 sec/batch

step: 100/10000...  loss: 5.3061...  0.1500 sec/batch

……

step: 950/10000...  loss: 4.0972...  0.1600 sec/batch

step: 960/10000...  loss: 3.9542...  0.1900 sec/batch

step: 970/10000...  loss: 4.0406...  0.1500 sec/batch

step: 980/10000...  loss: 4.1385...  0.1400 sec/batch

step: 990/10000...  loss: 3.9897...  0.1600 sec/batch

step: 1000/10000...  loss: 3.9653...  0.1400 sec/batch

step: 1010/10000...  loss: 4.0501...  0.1300 sec/batch

step: 1020/10000...  loss: 3.9391...  0.1200 sec/batch

step: 1030/10000...  loss: 4.1195...  0.1400 sec/batch

step: 1040/10000...  loss: 3.9310...  0.1300 sec/batch

step: 1050/10000...  loss: 3.8972...  0.1200 sec/batch

step: 1060/10000...  loss: 3.9801...  0.1200 sec/batch

step: 1070/10000...  loss: 4.0620...  0.1200 sec/batch

step: 1080/10000...  loss: 3.8817...  0.1200 sec/batch

step: 1090/10000...  loss: 3.9839...  0.1301 sec/batch

step: 1100/10000...  loss: 3.9646...  0.1479 sec/batch

……

step: 4980/10000...  loss: 2.8199...  0.1200 sec/batch

step: 4990/10000...  loss: 2.9057...  0.1200 sec/batch

step: 5000/10000...  loss: 2.8073...  0.1300 sec/batch

step: 5010/10000...  loss: 2.6680...  0.1200 sec/batch

step: 5020/10000...  loss: 2.7442...  0.1200 sec/batch

step: 5030/10000...  loss: 2.7590...  0.1300 sec/batch

step: 5040/10000...  loss: 2.6470...  0.1300 sec/batch

step: 5050/10000...  loss: 2.7808...  0.1200 sec/batch

step: 5060/10000...  loss: 2.7322...  0.1200 sec/batch

step: 5070/10000...  loss: 2.8775...  0.1200 sec/batch

step: 5080/10000...  loss: 2.8139...  0.1200 sec/batch

step: 5090/10000...  loss: 2.7857...  0.1200 sec/batch

step: 5100/10000...  loss: 2.7652...  0.1200 sec/batch

step: 5110/10000...  loss: 2.8216...  0.1200 sec/batch

step: 5120/10000...  loss: 2.8843...  0.1200 sec/batch

step: 5130/10000...  loss: 3.0093...  0.1300 sec/batch

step: 5140/10000...  loss: 2.7560...  0.1200 sec/batch

step: 5150/10000...  loss: 2.7263...  0.1200 sec/batch

step: 5160/10000...  loss: 2.8014...  0.1200 sec/batch

step: 5170/10000...  loss: 2.7410...  0.1200 sec/batch

step: 5180/10000...  loss: 2.7335...  0.1200 sec/batch

step: 5190/10000...  loss: 2.8362...  0.1200 sec/batch

step: 5200/10000...  loss: 2.6725...  0.1300 sec/batch

……

step: 9690/10000...  loss: 2.3264...  0.1463 sec/batch

step: 9700/10000...  loss: 2.5150...  0.1425 sec/batch

step: 9710/10000...  loss: 2.3348...  0.1200 sec/batch

step: 9720/10000...  loss: 2.4240...  0.1277 sec/batch

step: 9730/10000...  loss: 2.4282...  0.1293 sec/batch

step: 9740/10000...  loss: 2.5858...  0.1232 sec/batch

step: 9750/10000...  loss: 2.2951...  0.1305 sec/batch

step: 9760/10000...  loss: 2.3257...  0.1263 sec/batch

step: 9770/10000...  loss: 2.4495...  0.1253 sec/batch

step: 9780/10000...  loss: 2.4302...  0.1289 sec/batch

step: 9790/10000...  loss: 2.5102...  0.1299 sec/batch

step: 9800/10000...  loss: 2.8486...  0.1254 sec/batch

……

step: 9900/10000...  loss: 2.4408...  0.1330 sec/batch

step: 9910/10000...  loss: 2.5797...  0.1275 sec/batch

step: 9920/10000...  loss: 2.4788...  0.1384 sec/batch

step: 9930/10000...  loss: 2.3162...  0.1312 sec/batch

step: 9940/10000...  loss: 2.3753...  0.1324 sec/batch

step: 9950/10000...  loss: 2.5156...  0.1584 sec/batch

step: 9960/10000...  loss: 2.4312...  0.1558 sec/batch

step: 9970/10000...  loss: 2.3816...  0.1279 sec/batch

step: 9980/10000...  loss: 2.3760...  0.1293 sec/batch

step: 9990/10000...  loss: 2.3829...  0.1315 sec/batch

step: 10000/10000...  loss: 2.3973...  0.1337 sec/batch

训练的数据集


1、训练的数据集为林夕写给陈奕迅的歌词,来源于网络


陈奕迅 - 梦想天空分外蓝

一天天的生活

一边怀念 一边体验

刚刚说了再见 又再见

一段段的故事

一边回顾 一边向前

别人的情节总有我的画面

只要有心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

有梦就有蓝天

相信就能看见

美梦是个气球

签在手上 向往蓝天

不管高低不曾远离 我视线

生命是个舞台

不用排练 尽情表演

感动过的片段百看不厌

只要有心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

相信梦想就能看见

有太多一面之缘 值得被留恋

总有感动的事 等待被发现

梦想天空分外蓝 今夕何年

Oh 看不厌

用心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

有梦就有蓝天

相信就能看见

美梦是个气球

签在手上 向往蓝天

不管高低不曾远离 我视线

梦想是个诺言

记在心上 写在面前

因为相信 所以我看得见



相关文章
|
1月前
|
机器学习/深度学习 人工智能 分布式计算
人工智能,应该如何测试?(六)推荐系统拆解
该文介绍了推荐系统的基本概念和实现思路。推荐系统通过预处理筛选候选集合,然后利用二分类模型预测用户对内容的喜好概率,再按概率排序选择Top N内容推荐给用户。文中提供了一个使用Spark ML库的简单模型训练DEMO,涉及数据预处理、特征工程和逻辑回归模型。此外,还提及了词向量在处理文本特征中的重要性,它能捕捉词与词之间的关联性。推荐系统的实际应用远比示例复杂,但这个例子有助于理解其核心流程。
26 0
|
3月前
|
机器学习/深度学习 人工智能 安全
中国信通院联合金橙果科技等十七家单位发起人工智能大模型安全基准测试
2024年2月20日下午,AIIA“SafetyAI Bench”(人工智能大模型安全基准测试)线上研讨会成功举办。来自中国信息通信研究院(以下简称“中国信通院”)、厦门大学、北京大学、北京交通大学、360、百度、蚂蚁集团、VIVO、西门​子、小鹏汽车、马上消费、浪潮科技、海信视像、交通银行、商汤科技、邮储银行、普华永道、科大讯飞、金橙果科技、万商天勤律所、中兴通讯、博特智能、开源网安、云天励飞等单位40余位科研机构专家及企业代表参加了本次会议。
|
5月前
|
机器学习/深度学习 人工智能 算法
软件测试/人工智能|人工智能与自动化测试结合实战-探索人工智能在测试领域中的应用
软件测试/人工智能|人工智能与自动化测试结合实战-探索人工智能在测试领域中的应用
163 0
|
1月前
|
人工智能 搜索推荐 算法
人工智能,应该如何测试?(七)大模型客服系统测试
这篇文稿讨论了企业级对话机器人的知识引擎构建,强调了仅靠大模型如 GPT 是不够的,需要专业领域的知识库。知识引擎的构建涉及文档上传、解析、拆分和特征向量等步骤。文档解析是难点,因文档格式多样,需将内容自动提取。文档拆分按语义切片,以便针对性地回答用户问题。词向量用于表示词的关联性,帮助模型理解词义关系。知识引擎构建完成后,通过语义检索模型或问答模型检索答案。测试环节涵盖文档解析的准确性、问答模型的正确率及意图识别模型的性能。整个过程包含大量模型组合和手动工作,远非简单的自动化任务。
257 0
|
1月前
|
人工智能 自然语言处理 算法
人工智能,应该如何测试?(五)ASR 效果测试介绍
ASR是自动语音识别技术,将语音转化为文本,涉及多学科知识。数据收集是关键,包括特定人/非特定人、词汇量大小、发音方式、方言和情感等多种类别,高质量数据成本高。ASR流程包括数据收集、标注、输入算法得到文本输出并评估。常用评估指标有字错率(WER)、字正确率及插入/删除/替换率。数据标注需严格遵循规范,工作量大,而Levenshtein库可用于自动化效果评测。在AI领域,大部分时间投入在数据处理上。
34 0
|
1月前
|
人工智能 分布式计算 Kubernetes
人工智能,应该如何测试?(三)数据构造与性能测试篇
本文探讨了人工智能场景中的性能测试,区别于传统互联网测试,其复杂性更高。主要关注点包括两类AI产品——业务类和平台类,后者涉及AI全生命周期,测试难度更大。测试重点是模型训练的性能,特别是数据模拟。需要构造大量结构化数据,如不同规模、分布、分片和特征规模的数据,以评估算法效率。此外,还涉及模拟设备规模(如视频流)和节点规模(边缘计算),以测试在大规模负载下的系统性能。文中提到了使用工具如Spark、ffmpeg、流媒体服务器和Kubernetes(K8S)的扩展项目,如Kubemark,来模拟大规模环境。最后,文章介绍了使用Golang进行异步IO操作以构建海量小文件,优化IO性能。
218 0
|
5月前
|
人工智能 自然语言处理 测试技术
软件测试/人工智能|如何使用ChatGPT帮我们写自动化测试脚本
软件测试/人工智能|如何使用ChatGPT帮我们写自动化测试脚本
88 0
软件测试/人工智能|如何使用ChatGPT帮我们写自动化测试脚本
|
6月前
|
人工智能 测试技术
软件测试/人工智能|如何利用ChatGPT帮助我们编写测试用例
软件测试/人工智能|如何利用ChatGPT帮助我们编写测试用例
84 0
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI Business Model】人工智能的定义 | 了解 AI 的历史 | 简单理解什么是 “图灵测试“
【AI Business Model】人工智能的定义 | 了解 AI 的历史 | 简单理解什么是 “图灵测试“
77 1
|
2月前
|
机器学习/深度学习 数据采集 人工智能
探索人工智能在软件测试中的应用与挑战
【2月更文挑战第21天】 随着技术的不断进步,人工智能(AI)已经逐渐渗透到软件测试的各个环节中,从测试用例的生成到缺陷的预测,再到自动化测试的执行。本文将深入探讨AI技术如何革新传统软件测试流程,提升测试效率和质量,并分析在集成AI技术时可能遇到的挑战及应对策略。我们还将通过实例分析,展示AI如何在提高测试覆盖率、减少人工干预以及优化资源分配方面发挥关键作用。
106 0