疫情在家期间,也在新电脑上准备用vim写科研论文。但是之前配置好的.vimrc文件中的配置在实验室的电脑上,我自己又懒得再配置一遍,于是作罢,选择了sublime来进行科研写作,顺便写了一篇《使用Sublime Text3撰写科研论文》。现在已经在实验室了,于是乎我将我的vim配置文件介绍介绍,放在网上,以防万一。同时,也给有需要的人借鉴参考。虽然去年在文章《使用Vim撰写科研论文》介绍了如何利用vim编写论文,只是介绍了与LaTex相关的插件。这里,我们将介绍一般性的编辑工作所需要的配置。
写博客的一些规范
本文字数: 1.7k 阅读时长 ≈ 2 分钟
最近开始将CSDN的博客转到个人博客上,主要是采用Markdown将以前的文章保存下来,然后将其用hexo部署到github。在这里,我介绍一下使用Markdown写博客时一些技巧,格式,以及如何用部署到网站上。
【CUDA编程】初始配置及一个简单实例
本文字数: 1.7k 阅读时长 ≈ 2 分钟
在去年写的一篇文章《Win10 + VS2017 + CUDA10.1 + CPLEX12.9 配置》中,我们已经介绍了如何安装CUDA和使用VS作为编程环境。一晃半年过去了,现在准备用GPU做点东西,投个会议。由于新换了电脑,我又重新安装了运行环境,结果遇到了如下语法问题:
【图解例说机器学习】集成学习之AdaBoost算法
本文字数: 3.2k 阅读时长 ≈ 5 分钟
三个臭皮匠,顶个诸葛亮。
集成学习 (Ensemble learning) 通过构建并结合多个学习器来完成学习任务,即先产生一组个体学习器,再通过某种策略将它们结合起来完成学习任务。
个体学习器通常为一个现有的学习算法从训练数据产生,例如决策树,神经网络等。结合策略:在回归问题中,一般采用 (加权) 平均法,在分类问题中,一般采用 (加权) 投票法。当训练数据很多时,一种更为强大的结合策略为学习法,即通过另一个学习器来进行结合,典型代表为Stacking.
根据个体学习器的生成方式不同,目前的集成学习方法大致分为两大类:序列化方法和并行化方法。在序列化方法中,个体学习器之间存在强依赖关系,需要串行生成,其代表为Boosting;在并行化方法中,个体学习器间不存在强依赖关系,可同时生成,其代表为Bagging和随机森林 (Random Forest)。
【漫漫科研路\Python】画支持向量机相关图
本文字数: 17k 阅读时长 ≈ 25 分钟
在之前的一篇文章【图解例说机器学习】支持向量机 (SVM)中,由于篇幅有限,我们只介绍了其理论部分。作为补充,本文介绍文中所有图像的绘制。我们全都是采用Python绘制,具体如下:
图1-2:
![]() |
![]() |
【漫漫科研路\Python&Tikz】画神经网络相关图
本文字数: 28k 阅读时长 ≈ 40 分钟
前一篇文章【图解例说机器学习】神经网络中,由于篇幅有限,我们只介绍了其理论部分。作为补充,本文主要介绍文中所有图像的绘制(使用Tikz或者Python)。对于神经网络中的框架图 (例如神经元,神经网络结构),我们采用Tikz绘制;对于坐标系的函数图像,我们采用Python绘制。注意:Tikz源代码需要在LaTeX中运行,其配置环境可以参考我之前的文章【漫漫科研路\LaTeX】使用Sublime Text3撰写科研论文(Windows系统下)或者【漫漫科研路\LaTeX】使用Vim撰写科研论文(MacOS系统下)。
【图解例说机器学习】神经网络 (Neural Networks)
本文字数: 5.8k 阅读时长 ≈ 8 分钟
【图解例说机器学习】参数估计 (MLE and MAP)
本文字数: 7.9k 阅读时长 ≈ 11 分钟
参数估计:给定一个数据集,我们希望用一个给定的分布去拟合该数据集的分布,确定该分布的参数的过程就是参数估计。例如,我们用二项分布去拟合多次投掷硬币的情况,计算该二项分布的最优参数(出现正面的概率 $\theta$)就是参数估计。
【图解例说机器学习】朴素贝叶斯 (Naive Bayes)
本文字数: 17k 阅读时长 ≈ 24 分钟
朴素贝叶斯分类法是基于贝叶斯定理与特征条件独立假设的分类方法。其主要思想为:对于给定的训练数据集 $\mathcal D$ ,首先基于特征条件独立假设学习输入 $\mathrm x$ 与输出 $y$ 的联合概率分布 $P(\mathrm x, y)$ ; 然后通过先验概率 $P(y)$ ,利用贝叶斯定理求出后验概率 $P(y\mid\mathrm x)$ 最大对应的输出 $y$ 。
【图解例说机器学习】支持向量机 (SVM)
本文字数: 22k 阅读时长 ≈ 32 分钟