Github网站搭建记录
前言 23年7月份我第一次搭建了自己的个人博客,用的是WordPress+Argon模板,效果如下: 放弃继续使用这个网站有两个原因: 由于当时买的是阿里的轻量级服务器,感觉每次访问速度都比较慢,并且服务器和域名续费居然比一开始买还高很多。 WordPress还有一个较大的问题是对md文件公式的支持不太好,我写的含有数学公式的md文件直接上传网站公式会显示有问题。 于是...
前言 23年7月份我第一次搭建了自己的个人博客,用的是WordPress+Argon模板,效果如下: 放弃继续使用这个网站有两个原因: 由于当时买的是阿里的轻量级服务器,感觉每次访问速度都比较慢,并且服务器和域名续费居然比一开始买还高很多。 WordPress还有一个较大的问题是对md文件公式的支持不太好,我写的含有数学公式的md文件直接上传网站公式会显示有问题。 于是...
网易云ncm格式转mp3 Argon-Theme 文档 鸠摩搜书(电子书索引网站) 文本对比在线工具 SimpleTex公式识别 虚拟电话-接收验证码 CS自学指南 IEEE论文模板 ChatGPT账号购买 Chirpy文档(网站模板说明文档)
恍惚间,就到8月底了,回到北京发现七月份40℃的盛夏正在远去…… 这个属于毕业季的夏天自然是独特的,有很多值得回忆的事和人。大学四年匆匆而过,回望整个四年,可以说是懵懂-迷茫-挣扎-渐渐释然的过程,最后一个学期可能是整个四年最快乐的时光吧。3、4、5月份为毕业论文忙碌,选题是自己很感兴趣的,也蛮想做点东西的,但是回想起来自己投入还是不够。从22年11月份就确定选题,结果基本是来年2月才开始...
🚀在自然语言处理(NLP)领域,Transformer架构已经成为最先进的技术之一,其核心概念是自注意力机制(Self-Attention Mechanism)。 📚在前面的两小节中,我们已经介绍了注意力机制的基础知识,包括RNN、Seq2Seq等传统方法的基本概念和实现。此外,我们详细讨论了自注意力机制(Self-Attention)及其在现代NLP模型中的重要性。自注意力机制允许模型在...
在自然语言处理领域,注意力机制(Attention Mechanism)已经成为提升模型性能的重要工具。传统的Encoder-Decoder结构在处理长序列时,常常因为统一语义特征向量的长度限制而导致性能瓶颈。然而,注意力机制通过引入动态上下文向量,成功解决了这一问题,使得模型能够在每个时间步选择与当前输出最相关的信息。 本篇博客将详细介绍注意力机制的基本原理、一般形式以及自注意力模...
🔥 在自然语言处理(NLP)领域,理解和生成自然语言的能力对于构建智能系统至关重要。从文本分类、机器翻译到对话系统,底层技术的不断进步推动了NLP的发展。在这些技术中,循环神经网络(RNN)及其变种如长短期记忆网络(LSTM)、Seq2Seq模型和注意力机制(Attention Mechanism)扮演了重要角色。 📚 本系列博客将从基础知识开始,逐步深入探讨大语言模型在NLP中的应用。我...
一、基本概念 什么是机器学习 总的来说,机器学习就是大数据时代背景下处理数据的各种方法的总称。机器学习利用各种数理模型对数据进行建模,对数据进行预测和分析,在实际应用中指导决策。 我们通常将用于学习的数据对象或者实例称为样例或者样本,每个样例x采用一个向量 $x=(x^{(1)},x^{(2)},\cdots,x^{(n)})^T$来表示. 向量的每个分量对应样例的一个特征或者...
猫狗分类来源于Kaggle上的一个入门竞赛——Dogs vs Cats。为了加深对CNN的理解,基于Pytorch复现了LeNet,AlexNet,ResNet等经典CNN模型,源代码放在GitHub上,地址传送点击此处。项目大纲如下: 一、问题描述 基于训练集数据,训练一个模型,利用训练好的模型预测未知图片中的动物是狗或者猫的概率。 训练集有25,000张图片,测...
吉他指弹练习的第一首曲子,选择了比较简单的安和桥间奏,教程看的b站的老默(传送门)。记录一下曲谱: 断断续续练了挺久的,终于录了两个还算满意的(23年11月录制)。 音频版: Your browser does not sup...
文艺复兴 中世纪的这1000多年里,以基督教为代表的教权几乎控制了人们的全部精神生活。活在那个时代的人,一生最大的荣耀就是侍奉上帝。直到文艺复兴时期的诗人但丁发表了《神曲》,书里就强调了一个事儿:其实人活着不一定非得围着上帝转,好好享受世俗的生活,实现人自身的伟大价值,也是可以的。 14世纪开始,意大利通过发达的商业首先出现了资本主义萌芽,紧接着蔓延到了整个西欧。直到16世纪,意大利都是文艺...