Json数据过大,手机无法正常解析?

  • ~1.53K 字

为何会碰到这种问题

一般APP在初始化的时候会从服务器获取一些基础数据,但是这些数据一般都不会很大,最多几百KB的数据而已,但是我最近碰到初始化数据有35M之多,直接导致APP解析超大json的时候崩溃掉.

解决办法

  • 一般来说这种大量的基础数据是会直接存在本地的,但是此次处理的APP中确实需要从服务器拉取相应的初始化数据,为了解决这个问题,我尝试过使用fastJson来序列化json(项目中使用的时Gson序列化),但是毫无疑问不行
  • 我们只能通过精简json的体量和分页处理数据来处理.

具体实现

  • 在第一次获取增量更新数据的时候将分页0传递
1
2
ArrayList<JPromiser> adjustQs = JPromiserWhereStack.newInstance().add(QbsSyncDomainService.syncAdjustmentDataN(context, adjustmentDataDate, 0))
.addWhere("success", getSyncAdjustQ(context, adjustmentDataDate)).getTask();

拿到分页总数目

1
2
3
int pageCount = t.getContent().getPageCount();
getWallet().putExtra("pageCount",pageCount);
getPromiser().putWhere("success");
  • 在第一次调用成功后根据得到的分页信息进行下一步处理
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
private Promiser getSyncAdjustQ(final Context context, final Date[] adjustmentDataDate){
return new Promiser() {
@Override
protected void aync(Deffered<String, String> d) {
Integer pageCount =d.getWallet().getSafeInt("pageCount");
if (pageCount>1) {
for (Integer i = 1; i < pageCount; i++) {
Promiser promiser = QbsSyncDomainService.syncAdjustmentDataN(context, adjustmentDataDate, i);
tasks.add(promiser);
}
}
d.resolve();
}
};
}

分页数量大于1时继续添加分页请求,剩余几页就添加几次请求进去,保证所有的数据都能完整获取下来.

赞助喵
非常感谢您的喜欢!
赞助喵
分享这一刻
让朋友们也来瞅瞅!