题目链接:http://codeforces.com/contest/1062/problem/D
给一个n,现在允许任意初始一个数k并给定一个操作:ax=b,bx=a当且仅当a为b的倍数或b为a的倍数时,可以将a变为b(可以是负数),同时获得分数|x|. 要求不允许有多次a到b或b到a的操作(每个x仅算一次),问最多能得多少分。
Keep going
题目链接:http://codeforces.com/contest/1062/problem/D
给一个n,现在允许任意初始一个数k并给定一个操作:ax=b,bx=a当且仅当a为b的倍数或b为a的倍数时,可以将a变为b(可以是负数),同时获得分数|x|. 要求不允许有多次a到b或b到a的操作(每个x仅算一次),问最多能得多少分。
Deliberate Practice [1]:to identify your weakest areas and direct a massive effort on improving those areas without worrying about areas in which you are already good.
这是我在阅读西瓜书第二章时的一个遗留问题,是关于偏差-方差窘境(Bias-Variance Dilemma)的内容。
这是阅读周志华教授《机器学习》中第四章(决策树)的笔记,因为决策树是比较简单的算法,没有什么数学公式的推导,书中也是简单介绍了下信息熵的定义。
简单总结一下这一章的要点:
这一章介绍决策树,决策树的特点就是每一个节点作为一个选择分支,用于判断某一个样本是否含有这个属性。
决策树是递归定义的,因此属性个数理论上讲可以是无限多个。
在选择某个节点的代表属性时,引入利用信息增益为准则的ID3、C4.5和CART算法,这是三种较为类似的决策树的学习算法。
为了防止过拟合,还对决策树使用了剪枝操作。
处理连续值的方法是离散化后设定划分点。
遇到缺失值时利用无缺失的值进行估计,计算对应的信息增益再进行划分。
决策树的每一个节点还可以考虑不止一个属性,譬如使用多个属性值的线性组合的形式(多变量决策树),即允许存在斜的划分边界。甚至可以在每一个节点放一个感知机(感知机树)。
线性判别分析(Linear Discriminant Analysis, LDA)又称Fisher判别分析,是一种数据降维的方法,主要思想是使属于同一类的投影点距离尽可能地接近(类内方差小),不同类的中心点距离尽可能地远(类间中点距离大)。
这是我阅读在线书籍《Neural Networks and Deep Learning》第二章的笔记。
手残不小心把整个笔记的文件夹误删了,原来这种事是真的会发生的啊,还好对第一章笔记做了备份= =、
I watched a movie named “the last samurai” today: almost after some paper’s deadline. Actually I have watched it when I graduated from my high school. I was impressed by their fearless spirit and extremely focusing.
题目链接:http://codeforces.com/contest/1072/problem/D
给一个n×n的字母阵,允许修改其中的k个字符,问从(1,1)走到(n,n)字典序最小的字符串。
http://codeforces.com/contest/1054/problem/D
一个人有n个二进制最高位1k$位的数,现在允许每一个数按位取反,统计这个数列中最多有多少个区间异或和不是0。