您的位置:首页 > 其它

process mining(data source+d)+算法第二讲

2015-09-23 22:24 190 查看
data source:数据的来源,没什么可说的。

alpha算法:就是找到一条一条的边,最大的边。

算法:bag stack queue,s[0]=null(告诉垃圾回收器可以回收了)

内存分配:数组的reference是8个字节,对象的是24个字节,数组每次分配不够的时候回将它的内存double,为什么double因为这样效率高。当内存减小的时候是shrink它的空间,什么时候?当它的内存用到四分之一的时候。

泛型:是为了省去casting这一步骤而设定的,可以在编译的时候发现错误,是否应该对数组泛型是有争议的。

foreach什么时候用?实现了iteratable接口的才可以用这个结构。

comparable是一个接口,有compareto方法和exchange方法,实现了这个接口的就可以比较大小。

排序算法:选择(最好的和坏的都是n quadritic)排序。

插入排序:对部分排好序的效率高。

shell排序:increment sequence是一个问题。为什么有希尔排序,因为可以让它部分有

序,提高效率。而且排好序的不会再乱序。这个算法提出来已将几十年了,但还是没有找到一个好的sequence

knuth shuffle :random方法,n时间复杂度,随机找一个,然后将它与第i个换。

convex hull()graham scan:ccw方法来实现。

问题:为什么poker online 只要看五个还有服务器的时钟就可以预测未来的牌?







对机器学习中的第二讲中的constant的证明
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: