2024-11-26 07:22:38
导读:今天首席CTO笔记来给各位分享关于python能处理多少量的数据类型的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
Python适合大数据量的处理吗需要澄清两点之后才可以比较全面的看这个问题:
1.百万行级不算大数据量,以目前的互联网应用来看,大数据量的起点是10亿条以上。
2.处理的具体含义,如果是数据载入和分发,用python是很高效的;如果是求一些常用的统计量和求一些基本算法的结果,python也有现成的高效的库,C实现的和并行化的;如果是纯粹自己写的算法,没有任何其他可借鉴的,什么库也用不上,用纯python写是自讨苦吃。
python的优势不在于运行效率,而在于开发效率和高可维护性。针对特定的问题挑选合适的工具,本身也是一项技术能力。
python处理10亿级别数据求助
还没有仔细分析你的算法。第一个感觉,如果没有一个超级计算机,还是想办法优化你的算法。
通常在python里,一个字典只有支持几万到几十万数据量的时候效率最高。字典太大并不适合这种数据类型。
列表也不是存贮效率高的一种方式,通常我们大数据量计算会使用array,最差也要使用blist。
另外range也不可以的。要用xrange。xrange通常不消耗多少内存。range会用很多内存。
你上面的文字描述也没有讲明白你的算法目标。如果你讲得清楚,可以直接帮你优化一下算法。
整型的KEY,完全可以不用字典,只需要一个索引加一个一个数组就可以解决。
总体感觉你自己把算法弄得复杂了,应该可以有更简单得多的算法。先优化算法再做程序吧。即使你用java实现这个功能,也会出现内存不足。另外你代码里可通还有语法错误。
cums1,cums2,cums3应该是一个东西,为什么要弄三份。又不需要改写。一份足够了。
Python适合用于多大数据量级的处理python的优势在于很多第三方库,计算库之类的,海量计算还是要看分布式的架构了!
结语:以上就是首席CTO笔记为大家整理的关于python能处理多少量的数据类型的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~