题目链接:http://codeforces.com/contest/1062/problem/D
给一个$n$,现在允许任意初始一个数$k$并给定一个操作:$ax=b$,$bx=a$当且仅当$a$为$b$的倍数或$b$为$a$的倍数时,可以将$a$变为$b$(可以是负数),同时获得分数$|x|$. 要求不允许有多次$a$到$b$或$b$到$a$的操作(每个$x$仅算一次),问最多能得多少分。
Keep going
题目链接:http://codeforces.com/contest/1062/problem/D
给一个$n$,现在允许任意初始一个数$k$并给定一个操作:$ax=b$,$bx=a$当且仅当$a$为$b$的倍数或$b$为$a$的倍数时,可以将$a$变为$b$(可以是负数),同时获得分数$|x|$. 要求不允许有多次$a$到$b$或$b$到$a$的操作(每个$x$仅算一次),问最多能得多少分。
Deliberate Practice$\ ^{[1]}$:to identify your weakest areas and direct a massive effort on improving those areas without worrying about areas in which you are already good.
这是我在阅读西瓜书第二章时的一个遗留问题,是关于偏差-方差窘境(Bias-Variance Dilemma)的内容。
这是阅读周志华教授《机器学习》中第四章(决策树)的笔记,因为决策树是比较简单的算法,没有什么数学公式的推导,书中也是简单介绍了下信息熵的定义。
简单总结一下这一章的要点:
这一章介绍决策树,决策树的特点就是每一个节点作为一个选择分支,用于判断某一个样本是否含有这个属性。
决策树是递归定义的,因此属性个数理论上讲可以是无限多个。
在选择某个节点的代表属性时,引入利用信息增益为准则的ID3、C4.5和CART算法,这是三种较为类似的决策树的学习算法。
为了防止过拟合,还对决策树使用了剪枝操作。
处理连续值的方法是离散化后设定划分点。
遇到缺失值时利用无缺失的值进行估计,计算对应的信息增益再进行划分。
决策树的每一个节点还可以考虑不止一个属性,譬如使用多个属性值的线性组合的形式(多变量决策树),即允许存在斜的划分边界。甚至可以在每一个节点放一个感知机(感知机树)。
线性判别分析(Linear Discriminant Analysis, LDA)又称Fisher判别分析,是一种数据降维的方法,主要思想是使属于同一类的投影点距离尽可能地接近(类内方差小),不同类的中心点距离尽可能地远(类间中点距离大)。
这是我阅读在线书籍《Neural Networks and Deep Learning》第二章的笔记。
手残不小心把整个笔记的文件夹误删了,原来这种事是真的会发生的啊,还好对第一章笔记做了备份= =、
I watched a movie named “the last samurai” today: almost after some paper’s deadline. Actually I have watched it when I graduated from my high school. I was impressed by their fearless spirit and extremely focusing.
题目链接:http://codeforces.com/contest/1072/problem/D
给一个$n\times n$的字母阵,允许修改其中的$k$个字符,问从$(1,1)$走到$(n,n)$字典序最小的字符串。
http://codeforces.com/contest/1054/problem/D
一个人有$n$个二进制最高位$1%不超过$k$位的数,现在允许每一个数按位取反,统计这个数列中最多有多少个区间异或和不是0。