篮球让分胜负投注技巧

《84.13秒带你看尽ICLR 2017》

ICLR,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年才刚刚成立了第一届。 这个一年一度的会议虽然今年才办到第五届,但已经被学术研究者们广泛认可,被认为「深度学习的顶级会议」。

这个会议的来头不小,由位列深度学习三大巨?#20998;?#20108;的 Yoshua Bengio 和 Yann LeCun 牵头创办。 有兴趣的可以参考【才办了五年的 ICLR,为何被誉为“深度学习的顶级会议”?】这篇文章。

近期因为匿名评审、LipNet互怼等事件,有成为网红的趋势。 这届ICLR 2017更是大牛云集,学术界和工业界都很认可。 但?#29301;?#20809;提交的论文就有490篇,我们有什么好方法来了解大会,并从中?#19994;?#36866;合自己领域的研究呢?

第一种方法:上官网

这个方法中规中矩,但是这个滚动条好像有点长啊…… 选择困难症随时发作。

第二种方法:前沿科技媒体。

?#26723;?#32943;定的?#29301;?#36825;两年关于机器学习、人工智能等前沿领域,国内?#32943;?#20102;非常多自媒体,平日里为大家贡献了非常多碎片时间的阅读材料。 但是有几个问题,一是很多时候文章?#38469;?#20174;外媒跟风翻译;二是翻译质量参差不齐;三是带有一定主观性。

这两种方法?#33756;?#37117;不尽人意,今天我们就来介绍一?#20013;?#30340;方法,使用【DataExa-Sati知识图谱平台】来洞察ICLR大会,节省你的时间。

为了体现产品的简单易用,从此刻开?#25216;?#26102;。

一、 分析数据源

数据源无可厚非来自官网和openreview论文部分。

Openreview的论文数据?#38469;?#29992;AJAX组合的,但是格式非常简单,对于逆向大师来说,15秒左右搞定。

二、 集成数据

1、DataExa-Sati支持多源异构海量数据的傻瓜化集成,包括关系型数据库、NOSQL、文件、互联网爬虫、消息队列等等。这里我们选用爬虫来抓取数据。

2、在数据提取模板?#20449;?#32622;下数据项的表达式(JSON?#24049;劍?#20849;10来项。

3、在数据存储模板?#20449;?#32622;为【图存储】,指定连接信息。

4、最后,在图谱配置里,开启【无限联想】选项,并指定联想的网络范围。

如果我告诉你到这里,工作就做完了,你信还是不信?

没错,启动爬虫后,ICLR 2017这个小图谱已经构建完了,用时84.13秒(美国的服务器)。

接下来,我们来看看ICLR 2017有什么内容:

1、先看看参会情况如何?===> g(v.type=作者)

People mountain people sea,有没有?光提交论文的作者就有1400+人。

2、八卦是一种良好的驱动力,先看看几位深度学习大神们的成绩如何:

Yoshua Bengio作为联合作者,被拒了4篇

Geoffrey Hinton投了两篇,被拒了一篇。

燕大侠投了5篇,被拒了2篇。

3、接下来我们看看大神们一般和谁联合投稿。这个时候需要打开权重选项(非常考验人性的一个功能)

这个联合作者被引数太低了,战五渣啊。估计是新生,大神们果然桃李满天下。

4、看下【迁移学习】的论文有多少 ====> g(v:Transfer Learning),学术界真是喜新厌旧啊

而关于GAN字眼的论文标题就有43篇。

5、假设参会的人除了共同作者外都不认识,如何让三巨头凑个火锅?

====> persons(Yann LeCun,Yoshua Bengio,Geoffrey Hinton),出现三巨?#27867;?#20840;选,点击关系挖掘即可

6、八卦下百度的投稿情况: ====> g(v.mail=*baidu*)

百度共有9人投了4篇,中了2篇

7、正经地看下这次大会的论文分布情况,调整配置可以改变饼图粒度

8、对本次大会论文、作者进行一些统计(理论上可无限统计分析)。当然,很多数据是无限联想抓到的,只是演示并没有加入验证算法

9、最后,最关键的是双击图标,打开论文学习吧。(没错,爬虫会记录最终的多媒体地址甚?#26009;?#36733;下来)

篮球让分胜负投注技巧