回不去的昨天(ft.银葬)文本歌词
回不去的昨天
编曲:麒麟堂
作词:娃娃
演唱:娃娃/银葬
娃娃 VERSE 1:
是什麽 讓晴天變成雨天
就像悲傷的片段他不停在我腦海浮現
我想起 曾經你愛笑的臉
是什麽 讓我們再不會看不到雨後的晴天
娃娃RAP 1:
想起曾經那些暗淡的 照片
画满我们静态有过的 从前
曾经的諾言 抵不过現在 抱歉
说再见让謊言 抛天边
誰是誰的誰從今天開始不再懷念
不再掛念 不再想念 不再留戀
就讓時間 去沖淡
我們有過的瞬間
娃娃 VERSE 2:
是什麽 讓晴天變成雨天
就像悲傷的片段他不停在我腦海浮現
我想起 曾經你愛笑的臉
是什麽 讓我們再不會看不到雨後的晴天
银葬RAP 1:
就从你走后 我开始整理衣橱
把内衣裤衣服都堆到一处
想一度 追回你呼吸便会急促
印Tatto 我想努力把爱打住
你不会了解 我为你跳动的心
不会 因为我的痴情就转了心情
我的心里 睡觉做梦都有你身影
一幕幕的场景 发生过的事情
你喜欢热闹 我带你去垦丁堡
只要是你喜欢的东西就肯定 好
那东西肯定少 我肯定肯定找
如果找不到你肯定跟我吵
一路上祷告请你别再吵闹我讨饶
可是现在你已沉默我听不到
听不到 那些你的笑
晚上睡不着 我该如何是好
娃娃 VERSE 3:
是什麽 讓晴天變成雨天
就像悲傷的片段他不停在我腦海浮現
我想起 曾經你愛笑的臉
是什麽 讓我們再不會看不到雨後的晴天
编辑于2009/10/24更新
回不去的昨天(ft.银葬)LRC歌词
暂无歌词
更多>
最新上传歌词
更多>
歌词点击排行榜
更多>
歌词搜索排行榜
更多>
歌词下载排行榜
推荐资讯
-
如何建立自己的选题素材库?让素材库成为你的第二大脑 - 第五AI
如何建立自己的选题素材库?让素材库成为你的第二大脑 📝 为什么每个创作者都需要专属选题素材库?做内容创作的人,大概都遇到过这种情况:灵感来了的时候文思泉涌,可没灵感的时候盯着屏幕半天写不出一个字。更...
-
公众号注册的“蝴蝶效应”:一个选择,可能影响未来三年的运营 - 前沿AIGC资讯
你可能觉得公众号注册就是填几个信息的事,殊不知,这里面的每个选择都像蝴蝶扇动翅膀,未来三年的运营轨迹可能就被悄悄改变了。很多人刚开始没当回事,等到后面想调整,才发现处处受限,那叫一个后悔。今天就跟你好好聊聊,注册时那些看似不起眼的选择,到底能给未来的运营带来多大影响。📌账号类型选不对,三年运营路难
-
2025公众号托管服务方案,赚钱技巧与内容代运营全面升级 - 第五AI
📌 2025 公众号托管服务的底层逻辑:不是代运营,是 “结果交付” 这年头做公众号托管,还只停留在帮客户发文章、改排版?趁早别干了。2025 年的托管服务早就变了味儿 —— 客户要的不是 “做了什...
-
AI写作如何进行事实核查?确保头条文章信息准确,避免误导读者 - AI创作资讯
上周帮同事核查一篇AI写的行业报告,发现里面把2023年的用户增长率写成了2025年的预测数据。更离谱的是,引用的政策文件号都是错的。现在AI生成内容速度快是快,但这种硬伤要是直接发出去,读者信了才真叫坑人。今天就掰开揉碎了说,AI写作怎么做好事实核查,别让你的头条文章变成 误导重灾区 。📌AI写
-
10w+阅读量爆文案例拆解分析:高手都从这5个维度入手 - AI创作资讯
🎯维度一:选题像打靶,靶心必须是「用户情绪储蓄罐」做内容的都清楚,10w+爆文的第一步不是写,是选。选题选不对,后面写得再好都是白搭。高手选选题,就像往用户的「情绪储蓄罐」里投硬币,投对了立刻就能听到回响。怎么判断选题有没有击中情绪?看三个指标:是不是高频讨论的「街头话题」?是不是藏在心里没说的「抽
-
135编辑器会员值得买吗?它的AI模板库和秀米H5比哪个更丰富? - AI创作资讯
📌135编辑器会员值不值得买?AI模板库和秀米H5谁更胜一筹?🔍135编辑器会员的核心价值解析企业级商用保障与效率提升135编辑器的企业会员堪称新媒体运营的「合规保险箱」。根据实际案例,某团队通过企业会员节省了大量设计费用,完成多篇内容创作,单篇成本从千元降至百元内。这得益于其海量正版模板和素材库,
-
新公众号被限流怎么办?粉丝增长影响分析及 2025 恢复指南 - AI创作资讯
新公众号被限流怎么办?粉丝增长影响分析及2025恢复指南🔍新公众号限流的核心原因解析新公众号被限流,往往是多个因素叠加的结果。根据2025年最新数据,超过70%的限流案例与内容质量直接相关。比如,有些新手喜欢用“震惊体”标题,像“惊!某公众号三天涨粉十万”,这类标题在2025年的算法里已经被明确标记
-
AI内容重复率太高怎么办?掌握这些技巧轻松通过AIGC检测 - AI创作资讯
⚠️AI内容重复率高的3大核心原因现在用AI写东西的人越来越多,但很多人都会遇到同一个问题——重复率太高。明明是自己用工具生成的内容,一检测却显示和网上某些文章高度相似,这到底是为什么?最主要的原因是AI训练数据的重叠性。不管是ChatGPT还是国内的大模型,训练数据来源其实大同小异,都是爬取的互联
