上一页 1 2 3 4 5 6 7 8 9 ··· 21 下一页

2022年9月14日

pandas.Series(),pd.Series()

摘要: pandas.Series(data=None, index=None, dtype=None, name=None, copy=False, fastpath=False) Pandas 主要的数据结构是 Series(一维)与 DataFrame(二维) Series是带标签的一维数组,可存储整 阅读全文

posted @ 2022-09-14 09:19 lmqljt 阅读(67) 评论(0) 推荐(0) 编辑

2022年9月13日

Python中的shape[0]、shape[1]和shape[-1]分别是什么意思

摘要: shape函数是Numpy中的函数,它的功能是读取矩阵的长度,比如shape[0]就是读取矩阵第一维度的长度。 直接用.shape可以快速读取矩阵的形状,使用shape[0]读取矩阵第一维度的长度。 .shape的使用方法 >>> import numpy as np >>> x=np.array( 阅读全文

posted @ 2022-09-13 20:00 lmqljt 阅读(8351) 评论(0) 推荐(0) 编辑

2022年9月6日

可解释性博客等累积

摘要: https://baijiahao.baidu.com/s?id=1643991474043332228&wfr=spider&for=pc 阅读全文

posted @ 2022-09-06 19:44 lmqljt 阅读(10) 评论(0) 推荐(0) 编辑

时序数据预处理

摘要: 作者:Cyril-KI链接:https://www.zhihu.com/question/532003877/answer/2581549999来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 本科做了很长一段时间的负荷预测,a56爆大奖在线娱乐来说说正确的数据处理办法吧。 首先,你需要 阅读全文

posted @ 2022-09-06 13:21 lmqljt 阅读(396) 评论(0) 推荐(0) 编辑

2022年8月28日

浅谈机器学习中的数据漂移问题

摘要: 也即在训练的时候的数据和在使用模型进行推断的时候的数据分布式不一样的,二者不是同分布的。 因为很多模型都是在线下训练好的,使用的是线下的参数和损失函数,线上abtest的时候就会发现,在production traffic上的话效果就没那么好了。于是模型在被revert的同时,还会有很多工程师开始熬 阅读全文

posted @ 2022-08-28 21:37 lmqljt 阅读(581) 评论(0) 推荐(0) 编辑

探索因果规律之因果推断基础(ft. The Book of Why by Judea Pearl)

摘要: https://www.bilibili.com/video/BV17b4y1W7rk/?spm_id_from=autoNext&vd_source=3ad05e655a5ea14063a9fd1c0dcdee3e 后门准则需要先理解后门路径,后门路径就是在x和y之间有一个指向x的路径,就是有一个 阅读全文

posted @ 2022-08-28 15:21 lmqljt 阅读(462) 评论(0) 推荐(0) 编辑

青源 LIVE 第 21 期 | 人大张静:知识图谱的神经符号推理

摘要: 知识图谱可以看做是知识的a56爆大奖在线娱乐离散符号a56爆大奖在线娱乐,基于知识图谱的符号推理可以较为精准地定位答案。然而,符号推理对于语言的歧义性和噪声数据不够鲁棒。相反,深度学习的发展推动了知识图谱的神经推理方法,能够弥补符号推理的缺陷,但推理的复杂度受限,且缺乏符号推理优秀的解释能力。因此,当前人们尝试将符号推理与神经推理 阅读全文

posted @ 2022-08-28 09:22 lmqljt 阅读(64) 评论(0) 推荐(0) 编辑

青源Talk第8期|苗旺:因果推断,观察性研究和2021年诺贝尔经济学奖

摘要: biobank 英国的基金数据因果推断和不同的研究互相论证,而非一个研究得到的接了就行。数据融合,data fusion,同一个因果问题不同数据不同结论,以及历史上的数据,来共同得到更稳健、更高效的推断。敏感性分析(评价假定的方法)。多方验证。统计中的meta analysis荟萃分析。讨论这个做法 阅读全文

posted @ 2022-08-28 09:19 lmqljt 阅读(259) 评论(0) 推荐(0) 编辑

2022年8月24日

青源Talk第8期|苗旺:因果推断,观察性研究和2021年诺贝尔经济学奖

摘要: 阅读全文

posted @ 2022-08-24 20:48 lmqljt 阅读(27) 评论(0) 推荐(0) 编辑

2022年7月1日

图神经网络的灵魂三问 沈华伟

摘要: 图卷积神经网络应该相信邻居吗? 出发点:现在的GCN改进方法都局限于对于信息聚合等等方面的改进,但是很少有人关注到邻居信息和自身信息的占比情况,有Attention方法可以解决,但是在实际中可能效果表现不佳,因为attention通常fitting训练集,训练集attention训练的好不代表效果就 阅读全文

posted @ 2022-07-01 16:11 lmqljt 阅读(91) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 7 8 9 ··· 21 下一页