我从接口中请求用户的信息,用户信息量太多,有上万条。
每请求一次,它会返回50条数据,一个 has_next来判断有没有下一条数据,和一个last_fans_id用来下一次查询的参数。
如果直接循环读取的话,会很卡。
请问有没有别高效率的方法来读取数据,并将数据存进数据库。
好大的数据,居然都上万条了,需要Apache Hotdog才能处理了。:<
上万也不算多吧
@阿鸠: 给你个赞~\(≧▽≦)/~
@与阳光握手言和: 什么意思啊?伙计
大叔,Apache Hotdog?我也百度不出是什么啊
如果是第三方接口,不能一次性读取全部数据,就缓存数据
每次最多就读取50条嘛,用循环去读取很卡,是不是要用多线程的方法去读取数据
建议采用缓存和多线程技术结合解决!
php支持多线程吗
会很卡的意思是你请求的接口太慢吗,那就没办法了,如果不是接口慢可以每次读完存库然后再去读在存库就好啦。mysql每次存50条不会有压力的。
如果我不使用sleep()的话,就卡住了。使用sleep的话就很慢
不太明白你问题的意思,是查询数据库慢吗?加索引
不是啊 我是从接口请求回来的数据
接口的问题,非 php 问题