wlsdzyzl

無聊時的自娛自樂

香农虽然提出了香农码,但是香农码很多情况下离最优码还差得不少。比如:K=2,\(p(a_1) = 0.9999,p(a_2) = 0.0001\),这种偏差非常大的情况下,香农码给\(a_1,a_2\)的编码长度分别为:1,14.而实际上两个值,我们可以仅用一个bit就能区分开来。在这里介绍一个大名鼎鼎的最优前缀编码:Huffman编码。

Read more »

上次lfd的博客讲了神经网络的一些基本内容,包括它的起源,前向传播以及后向传播。实际上,对于一个很重要的部分:activation function,只是简单提到。所以这次着重说一下不同的激活函数之间的区别。

Read more »

实际上从上次介绍的东西,我们理论上已经知道了SLAM是怎么运作的了。从深度图和颜色图,估计相机位姿,通过相机位姿,以及深度图和颜色图,我们实际上就可以去拼接点云或者三维建模了。不过现实往往没有那么容易,如果这么简单SLAM也没什么好研究的了。

Read more »

上次图形学的博客中介绍了转换,所以我们可以从世界坐标转换到相机坐标了。不过虽然我们学的是三维模型,不过我们看到的都是二维的。近大远小是小学生都明白的道理,而一个物品的距离等等都会影响它在我们眼中,以及拍摄出来照片的样子。因此这次讲得内容是观察(Viewing)。

Read more »

在SLAM中,我们需要对姿态进行估计和优化。但是旋转矩阵自身是有约束的,增加优化难度。因此我们需要引入李群和李代数,可以将位姿估计转换为无约束的优化问题。

Read more »

不出意外的话,以后我的方向应该就是三维重建方向了,而SLAM是一个逃不开的东西。

Read more »

上周的数据学习课程布置了一个作业,主要做的是对多维高斯分布下求得协方差矩阵的取值。这个和之前将的Generative Learning Algorithm很相关,但是当时是直接给出了协方差矩阵的取值。结果是异常简单的,但是其中的证明可能要费点功夫。

Read more »

这周上的数据学习,主要讲了一些神经网络相关的知识。神经网络是目前最流行的机器学习算法了,甚至由它诞生了一个新的学科:deep learning。因此一篇博客,只能浅浅介绍一些神经网络的基本内容。

Read more »

在我们的生活中,其实大部分使用的都是soft-margin SVM,很少会有人真正去使用hard-margin,因为我们无法避免噪声。现在想想,能否将soft-margin svm与我们之前的losgistic regress结合起来,会得到什么样的学习算法?

Read more »

信息论算是应用数学,因此我们希望用熵,互信息这些东西来解决一些实际的问题。首先介绍下无失真编码定理,它早已经被广泛用在我们生活当中了。

Read more »

\(X\)\(Y\)\(\hat{X}\),其中\(\hat {X}\)是对原有的\(X\)的估计,而Y可以看作是一个中间过程,可以想象类似于编码解码的过程。这之间有什么联系?

Read more »
0%