DL之RNN:人工智能为你写歌词(林夕写给陈奕迅)——基于TF利用RNN算法实现【机器为你作词】、训练&测试过程全记录

简介: DL之RNN:人工智能为你写歌词(林夕写给陈奕迅)——基于TF利用RNN算法实现【机器为你作词】、训练&测试过程全记录

输出结果


1、test01


你的背包

一个人过我 谁不属了

不甘心 不能回头

我的背包载管这个

谁让我们是要不可

但求跟你过一生

你把我灌醉

即使嘴角从来未爱我

煽到你脖子

谁能凭我的比我

无赏

其实我的一切麻痹 我听过

不能够大到

爱人没有用

你想去哪里

如果美好不变可以

我会珍惜我最爱

我想将

鼓励爱你的

为何爱你不到你

我会加油工作争取享受和拼搏

三餐加一宿光档也许会寂寞

你想将

双手的温暖附托是你不知

但无守没抱过

不影响你不敢哭

其实没有火花 没抱动

不能够沉重

从来未休疚不够你不会

请你 这些眼发后

没有手机的日子

2、test02


谁来请你坐

全为你分声不需可怕

没有人机有几敷衍过的

难道再侣 被不想去为你

不如这样

你不爱你的

没有人歌颂

全一边扶暖之远一天一百万人

拥有殿军我想到我多 你真爱

从来未爱我 我们在

我有我是我们憎我 我不属于我

我想将

你的背包

原来不能回到你一起

难道我是谁也爱你 要不属力 不知道明年今日

明年今日 不是我不得到

爱你的背上我要

从来未不肯会 就要你不有

我会拖手会不会

难道我跟我眼睛的错 

全为这世上谁是你

不够爱你的汗

谁能来我的比你闷

不具名的演员没得到手的故事

不够含泪一个人 这么迂会

我们在

3、test03


谁来请你坐

全为你分声不需可怕

没有人机有几敷衍过的

难道再侣 被不想去为你

不如这样

你不爱你的

没有人歌颂

全一边扶暖之远一天一百万人

拥有殿军我想到我多 你真爱

从来未爱我 我们在

我有我是我们憎我 我不属于我

我想将

你的背包

原来不能回到你一起

难道我是谁也爱你 要不属力 不知道明年今日

明年今日 不是我不得到

爱你的背上我要

从来未不肯会 就要你不有

我会拖手会不会

难道我跟我眼睛的错 

全为这世上谁是你

不够爱你的汗

谁能来我的比你闷

不具名的演员没得到手的故事

不够含泪一个人 这么迂会

我们在

模型监控






训练、测试过程全记录


1、训练过程


2018-10-14 07:31:33.515130: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2

step: 10/10000...  loss: 5.9560...  0.1500 sec/batch

step: 20/10000...  loss: 5.8495...  0.1300 sec/batch

step: 30/10000...  loss: 5.6970...  0.1600 sec/batch

step: 40/10000...  loss: 5.5893...  0.1300 sec/batch

step: 50/10000...  loss: 5.4582...  0.1300 sec/batch

step: 60/10000...  loss: 5.3003...  0.1400 sec/batch

step: 70/10000...  loss: 5.2871...  0.1600 sec/batch

step: 80/10000...  loss: 5.3841...  0.1500 sec/batch

step: 90/10000...  loss: 5.2470...  0.1400 sec/batch

step: 100/10000...  loss: 5.3061...  0.1500 sec/batch

……

step: 950/10000...  loss: 4.0972...  0.1600 sec/batch

step: 960/10000...  loss: 3.9542...  0.1900 sec/batch

step: 970/10000...  loss: 4.0406...  0.1500 sec/batch

step: 980/10000...  loss: 4.1385...  0.1400 sec/batch

step: 990/10000...  loss: 3.9897...  0.1600 sec/batch

step: 1000/10000...  loss: 3.9653...  0.1400 sec/batch

step: 1010/10000...  loss: 4.0501...  0.1300 sec/batch

step: 1020/10000...  loss: 3.9391...  0.1200 sec/batch

step: 1030/10000...  loss: 4.1195...  0.1400 sec/batch

step: 1040/10000...  loss: 3.9310...  0.1300 sec/batch

step: 1050/10000...  loss: 3.8972...  0.1200 sec/batch

step: 1060/10000...  loss: 3.9801...  0.1200 sec/batch

step: 1070/10000...  loss: 4.0620...  0.1200 sec/batch

step: 1080/10000...  loss: 3.8817...  0.1200 sec/batch

step: 1090/10000...  loss: 3.9839...  0.1301 sec/batch

step: 1100/10000...  loss: 3.9646...  0.1479 sec/batch

……

step: 4980/10000...  loss: 2.8199...  0.1200 sec/batch

step: 4990/10000...  loss: 2.9057...  0.1200 sec/batch

step: 5000/10000...  loss: 2.8073...  0.1300 sec/batch

step: 5010/10000...  loss: 2.6680...  0.1200 sec/batch

step: 5020/10000...  loss: 2.7442...  0.1200 sec/batch

step: 5030/10000...  loss: 2.7590...  0.1300 sec/batch

step: 5040/10000...  loss: 2.6470...  0.1300 sec/batch

step: 5050/10000...  loss: 2.7808...  0.1200 sec/batch

step: 5060/10000...  loss: 2.7322...  0.1200 sec/batch

step: 5070/10000...  loss: 2.8775...  0.1200 sec/batch

step: 5080/10000...  loss: 2.8139...  0.1200 sec/batch

step: 5090/10000...  loss: 2.7857...  0.1200 sec/batch

step: 5100/10000...  loss: 2.7652...  0.1200 sec/batch

step: 5110/10000...  loss: 2.8216...  0.1200 sec/batch

step: 5120/10000...  loss: 2.8843...  0.1200 sec/batch

step: 5130/10000...  loss: 3.0093...  0.1300 sec/batch

step: 5140/10000...  loss: 2.7560...  0.1200 sec/batch

step: 5150/10000...  loss: 2.7263...  0.1200 sec/batch

step: 5160/10000...  loss: 2.8014...  0.1200 sec/batch

step: 5170/10000...  loss: 2.7410...  0.1200 sec/batch

step: 5180/10000...  loss: 2.7335...  0.1200 sec/batch

step: 5190/10000...  loss: 2.8362...  0.1200 sec/batch

step: 5200/10000...  loss: 2.6725...  0.1300 sec/batch

……

step: 9690/10000...  loss: 2.3264...  0.1463 sec/batch

step: 9700/10000...  loss: 2.5150...  0.1425 sec/batch

step: 9710/10000...  loss: 2.3348...  0.1200 sec/batch

step: 9720/10000...  loss: 2.4240...  0.1277 sec/batch

step: 9730/10000...  loss: 2.4282...  0.1293 sec/batch

step: 9740/10000...  loss: 2.5858...  0.1232 sec/batch

step: 9750/10000...  loss: 2.2951...  0.1305 sec/batch

step: 9760/10000...  loss: 2.3257...  0.1263 sec/batch

step: 9770/10000...  loss: 2.4495...  0.1253 sec/batch

step: 9780/10000...  loss: 2.4302...  0.1289 sec/batch

step: 9790/10000...  loss: 2.5102...  0.1299 sec/batch

step: 9800/10000...  loss: 2.8486...  0.1254 sec/batch

……

step: 9900/10000...  loss: 2.4408...  0.1330 sec/batch

step: 9910/10000...  loss: 2.5797...  0.1275 sec/batch

step: 9920/10000...  loss: 2.4788...  0.1384 sec/batch

step: 9930/10000...  loss: 2.3162...  0.1312 sec/batch

step: 9940/10000...  loss: 2.3753...  0.1324 sec/batch

step: 9950/10000...  loss: 2.5156...  0.1584 sec/batch

step: 9960/10000...  loss: 2.4312...  0.1558 sec/batch

step: 9970/10000...  loss: 2.3816...  0.1279 sec/batch

step: 9980/10000...  loss: 2.3760...  0.1293 sec/batch

step: 9990/10000...  loss: 2.3829...  0.1315 sec/batch

step: 10000/10000...  loss: 2.3973...  0.1337 sec/batch

训练的数据集


1、训练的数据集为林夕写给陈奕迅的歌词,来源于网络


陈奕迅 - 梦想天空分外蓝

一天天的生活

一边怀念 一边体验

刚刚说了再见 又再见

一段段的故事

一边回顾 一边向前

别人的情节总有我的画面

只要有心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

有梦就有蓝天

相信就能看见

美梦是个气球

签在手上 向往蓝天

不管高低不曾远离 我视线

生命是个舞台

不用排练 尽情表演

感动过的片段百看不厌

只要有心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

相信梦想就能看见

有太多一面之缘 值得被留恋

总有感动的事 等待被发现

梦想天空分外蓝 今夕何年

Oh 看不厌

用心就能看见

从白云看到 不变蓝天

从风雨寻回 梦的起点

海阔天空的颜色

就像梦想那么耀眼

用心就能看见

从陌生的脸 看到明天

从熟悉经典 翻出新篇

过眼的不只云烟

有梦就有蓝天

相信就能看见

美梦是个气球

签在手上 向往蓝天

不管高低不曾远离 我视线

梦想是个诺言

记在心上 写在面前

因为相信 所以我看得见



相关文章
|
24天前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
56 1
|
1月前
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
125 1
|
2月前
|
存储 机器学习/深度学习 算法
蓝桥杯练习题(三):Python组之算法训练提高综合五十题
蓝桥杯Python编程练习题的集合,涵盖了从基础到提高的多个算法题目及其解答。
122 3
蓝桥杯练习题(三):Python组之算法训练提高综合五十题
|
1月前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
2月前
|
机器学习/深度学习 算法 决策智能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
|
2月前
|
JSON 算法 数据可视化
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
这篇文章是关于如何通过算法接口返回的目标检测结果来计算性能指标的笔记。它涵盖了任务描述、指标分析(包括TP、FP、FN、TN、精准率和召回率),接口处理,数据集处理,以及如何使用实用工具进行文件操作和数据可视化。文章还提供了一些Python代码示例,用于处理图像文件、转换数据格式以及计算目标检测的性能指标。
77 0
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
|
2月前
|
算法 Java C++
【贪心算法】算法训练 ALGO-1003 礼物(C/C++)
【贪心算法】算法训练 ALGO-1003 礼物(C/C++)
【贪心算法】算法训练 ALGO-1003 礼物(C/C++)
|
2月前
|
算法 C++
蓝桥 算法训练 共线(C++)
蓝桥 算法训练 共线(C++)
|
4月前
|
机器学习/深度学习 自然语言处理 算法
利用机器学习算法进行自动化测试
利用机器学习算法进行自动化测试
|
4月前
|
算法 搜索推荐
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较