Производительность декодирования Python JSON
я использую json
модуль в Python 2.6 для загрузки и декодирования файлов JSON. Однако в настоящее время я получаю медленнее, чем ожидалось. Я использую тестовый случай размером 6 МБ и json.loads()
занимает 20 секунд.
Я думал json
у модуля был собственный код для ускорения декодирования?
Как проверить, используется ли это?
в качестве сравнения я загрузил и установил python-cjson
модуль, и cjson.decode()
занимает 1 секунду тот же тест.
Я бы предпочел использовать модуль JSON, поставляемый с Python 2.6, чтобы пользователям моего кода не требовалось устанавливать дополнительные модули.
(я разрабатываю на Mac OS X, но я получаю аналогичный результат на Windows XP.)
7 ответов
Он может варьироваться в зависимости от платформы, но встроенный модуль json основан на simplejson, не включая ускорения C. Я нашел simplejson таким же быстрым, как python-cjson, поэтому я предпочитаю его, поскольку он, очевидно, имеет тот же интерфейс, что и встроенный.
try:
import simplejson as json
except ImportError:
import json
Мне кажется, что это лучшая идиома на некоторое время, давая производительность, когда она доступна, будучи совместимой с форвардами.
новая Yajl-еще одна библиотека JSON очень быстро.
yajl serialize: 0.180 deserialize: 0.182 total: 0.362
simplejson serialize: 0.840 deserialize: 0.490 total: 1.331
stdlib json serialize: 2.812 deserialize: 8.725 total: 11.537
вы можете сравните библиотеки самостоятельно.
обновление: UltraJSON еще быстрее.
я разбирал тот же файл 10x. Размер файла составил 1,856,944 байта.
Python 2.6:
yajl serialize: 0.294 deserialize: 0.334 total: 0.627
cjson serialize: 0.494 deserialize: 0.276 total: 0.769
simplejson serialize: 0.554 deserialize: 0.268 total: 0.823
stdlib json serialize: 3.917 deserialize: 17.508 total: 21.425
Python 2.7:
yajl serialize: 0.289 deserialize: 0.312 total: 0.601
cjson serialize: 0.232 deserialize: 0.254 total: 0.486
simplejson serialize: 0.288 deserialize: 0.253 total: 0.540
stdlib json serialize: 0.273 deserialize: 0.256 total: 0.528
не уверен, почему цифры несоразмерны с вашими результатами. Наверное, новые библиотеки?
посмотрите UltraJSON https://github.com/esnme/ultrajson
вот мой тест (код из:https://gist.github.com/lightcatcher/1136415)
платформа: OS X 10.8.3 MBP 2.2 GHz Intel Core i7
в формате JSON:
simplejson==3.1.0
python-cjson==1.0.5
jsonlib==1.6.1
ujson==1.30
yajl==0.3.5
JSON Benchmark
2.7.2 (default, Oct 11 2012, 20:14:37)
[GCC 4.2.1 Compatible Apple Clang 4.0 (tags/Apple/clang-418.0.60)]
-----------------------------
ENCODING
simplejson: 0.293394s
cjson: 0.461517s
ujson: 0.222278s
jsonlib: 0.428641s
json: 0.759091s
yajl: 0.388836s
DECODING
simplejson: 0.556367s
cjson: 0.42649s
ujson: 0.212396s
jsonlib: 0.265861s
json: 0.365553s
yajl: 0.361718s
для тех, кто анализирует вывод из запроса с помощью пакета запросов, например:
res = requests.request(...)
text = json.loads(res.text)
Это может быть очень медленно для большего содержимого ответа, скажем, ~45 секунд для 6 МБ на моем MacBook 2017. Это вызвано не медленным синтаксическим анализатором json, а вместо этого медленным определением набора символов res.смс.
вы можете решить эту проблему, установив набор символов до вы вызываете res.текст и использование cchardet пакета (см. также здесь):
if res.encoding is None:
res.encoding = cchardet.detect(res.content)['encoding']
это делает текст ответа JSON разбором почти мгновенно!
глядя в мою установку Python 2.6.1 на windows,json
пакет загружает _json
модуль, который встроен в рантайм. C
источник json speedups
модуль здесь.
>>> import _json
>>> _json
<module '_json' (built-in)>
>>> print _json.__doc__
json speedups
>>> dir(_json)
['__doc__', '__name__', '__package__', 'encode_basestring_ascii', 'scanstring']
>>>
хотя _json
доступно, я заметил, что декодирование json очень медленно на CPython 2.6.6. Я не сравнивал с другими реализациями, но я переключился на манипуляцию строками, когда внутри критических циклов производительности.