Deep & Cross Network 系列速览
深度交叉网络(Deep & Cross Network)是推荐系统中很常见的一类模型,通过引入 Cross 网络来实现特征交叉,增强模型的表达能力。本文将快速介绍 DCN 三部曲以及其中两种变体 EDCN 和 GDCN。
粥的邀月的名片实在是太好看了,可惜不知道哪位老师画的。
DCN
对于线性模型 y=wTx+by = w^Tx + by=wTx+b 的拟合能力显然不足,它没有考虑到不同领域之间的特征的交互的关系,为了增强它,考虑加入 ∑i∑jwijxixj\sum_i \sum_j w_{ij} x_{i}x_j∑i∑jwijxixj 等项,即因子分解机系列算法的想法。这
Learning to Prompt for Continual Learning 阅读笔记
考虑做一个图像分类问题,但是有一点不一样:我们首先在数据集 D1D_1D1 上进行训练,接着我们在数据集上 D2D_2D2 上训练,由于 D1D_1D1 和 D2D_2D2 都非常地大,我们不能将数据集完全保存下来,所以不能反复遍历 D1D_1D1 的数据来训练,只能记录一些东西,然后将 D1D_1D1 丢弃,接着我们会在数据集 D3D_3D3 上训练,并保持类似的限制,以此内推,最终我们在数据集 DTD_TDT 上训练,接着我们将要在测试集上评估模型的性能。这样的问题称为持续学习(Continual Learning)。
Continual Learning 带来最大的问题是
光子映射系列速览:PM、PPM、SPPM
有效地实现全局光照的模拟是计算机图形学中一个经典的问题,在 1998 年 Veach 的博士论文中给出了无偏 Monte-Carlo 模拟的 Path Tracing 算法,但是路径追踪算法在模拟焦散时并不准确。但 Monte-Carlo 的误差为 O(n−1/2)O(n^{-1/2})O(n−1/2),增加采样点对最终渲染效果的提升始终有限。
焦散是指光线经过透明物体时,经过一次或多次折射和反射在漫反射表明形成的光影现象,例如下图这个水杯折射后光线在桌面上形成的图像:
为了简单,我们下面仅考虑三种材质:Lambertian 材质(完美的漫反射)、镜面材质(完美的镜面反射)、透明材质(只考
扩散模型学习笔记
Diffusion Models 的想法是通过缓慢地将噪声加入数据,然后学习逆向扩散的过程,从而能从噪声中构建出所需要的样本。
设 x0x_0x0 为原始的样本,xTx_TxT 为最终的噪声。设 qqq 表示真实的概率分布,ppp 则表示生成的概率分布。
前向扩散,逐步向图像中添加高斯噪声,设在 t−1t -1t−1 时刻向 ttt 时刻的图像扩散的方差为 βt\beta_tβt,那么
xt=1−βtxt−1+βtϵ (ϵ∼N(0,I))x_t = \sqrt{1 - \beta_t} x_{t-1} +\sqrt{\beta_t}\epsilon\ (\epsilon \sim
图卷积神经网络
现在给定一个图 G=(V,E)G=(V, E)G=(V,E) 其中 n=∣V∣n = |V|n=∣V∣ 为顶点数,EEE 为边集。给定其中每个点的特征,每个特征都是一个 CCC 维的向量, 以及它们其中某些点对应的标签 yyy,现在我们需要预测剩下的点的标签。
例如 Cora 数据集,每个点表示一篇论文,两个点间如果有一条无向边,那么表示这两篇论文之间存在引用关系。对于每个点给定一个向量,这个向量的每一维表示某个单词有没有出现过,某些点的类别,需要去预测剩下的点的类别。
谱域图卷积神经网络
在 CNN 里面,我们通过定义了一个卷积核,然后借助互相关运算,来在保留位置关系的同时提取图像的特征。
UNet 学习笔记
U-Net 主要改进 Ciresan 等人的做法中的两个缺点:效率低以及很难使用较大范围的局部信息,并同时继承其两项优点:对每个像素的类别进行预测,同时不需要大量的图片数据。
U-Net 的架构如下
对于图像边缘进行识别时,在卷积层中使用 zero-padding 的效果并不好,因此 UNet 的处理方式是对于输入的图像将边缘通过镜像的方式进行填充:
在 U-Net 的架构中,左侧使用 conv 和 pooling 主要进行特征的提取。右侧则是将特征将与原始的网络进行融合,每一步首先将深层的特征进行上采样,然后与特征提取对应的网络进行拼接融合。由于 max pool 会丢失图像信息,这一步
生成对抗网络学习笔记
GAN(生成对抗网络)在多个领域有广泛的应用。在图像生成方面,GAN 能够生成逼真的图片和视频,用于数据增强、图像编辑等。在自然语言处理领域,GAN 可以用于文本生成、机器翻译等任务。此外,GAN 还可以用于图像到图像的翻译,如图像上色、风格迁移等。本文将介绍简单 GAN 的原理。
强化学习笔记
强化学习(reinforcement learning,RL)讨论的问题是智能体怎么在复杂、不确定的环境里面去最大化它能获得的奖励。强化学习中主要有两部分:智能体和环境。
在强化学习中,与一般的机器学习问题,例如分类、回归等,有一些明显的区别:
强化学习中存在延迟奖励的问题。比如智能体采取了一步行动,没有办法立刻知道这一步是好的决策还是坏的决策,可能要到很多步之后,才能取得最终的结果。
智能体得到的观测是和时间相关的,前一时刻和当前时刻有很大的关系,但是机器学习中不同样本一般是独立的。
这里的观测与状态有一些区别:比如说走迷宫,状态应该是智能体在迷宫的什么位置,但是智能体至多知道自己经过
MySql 简易教程
简易教程 (x) 简陋笔记 (√)
LangChain 学习笔记
LangChain 是一个框架,它旨在帮助开发人员更好地利用语言模型来构建应用。大语言模型对自然语言有一定理解能力,但是其逻辑、计算和搜索能力等方面能力有限,同时训练结束后模型便固定下来,对于新产生的各种信息便不会被模型学习。LangChain 的想法在大模型的基础上,集成一些工具。比如我想要解决一个问题,大模型可以通过工具来获取一些信息,然后再根据这些工具得到的信息由大模型生成最终的答案。
下面随便瞎记一些东西,应该会不定期更新。如果下面看到什么地方感觉缺了很多,完全不能用那种,那应该是我暂时用不到这方面内容,所以没学。
一些应用的流程
基于本地知识库问答
它的想法是将本地文本库读入