通常excel导入后数据量会膨胀很多倍,方案一是pako压缩,再者,Luckysheet的本身数据也可以做优化,因为有许多配置是重复的,考虑写一个转换引擎作为前置插件,获取到用户操作类的配置,走插件转化为Luckysheet可识别的格式
excel.xlsx
通常excel导入后数据量会膨胀很多倍,方案一是pako压缩,再者,Luckysheet的本身数据也可以做优化,因为有许多配置是重复的,考虑写一个转换引擎作为前置插件,获取到用户操作类的配置,走插件转化为Luckysheet可识别的格式
excel.xlsx
4条答案
按热度按时间3j86kqsm1#
是否可以支持把二维数据转成 luckysheet 识别的数据格式。
类似 sheetjs 的 utils.json_to_sheet
mkshixfv2#
我目前的做法是后端只保存表头跟开始行的数据结构,其余行的数据根据开始行这一行的数据结构,在前端去遍历组装。这样数据量就少很多很多
q0qdq0h23#
我目前的做法是后端只保存表头跟开始行的数据结构,其余行的数据根据开始行这一行的数据结构,在前端去遍历组装。这样数据量就少很多很多
请教一下 怎么做到后端只保存表头和有数据的行,直接通过方法获取整个表单传到后端存储,会有大量的null存在,数据量很大
5tmbdcev4#
我目前的做法是后端只保存表头跟开始行的数据结构,其余行的数据根据开始行这一行的数据结构,在前端去遍历组装。这样数据量就少很多很多
同问后端获取到大量的null存在