Использование hashlib для вычисления MD5-дайджеста файла в Python 3
С python 2.7 следующий код вычисляет MD5 hexdigest содержимого файла.
(EDIT: ну, не совсем так, как показали ответы, я просто так думал).
import hashlib
def md5sum(filename):
f = open(filename, mode='rb')
d = hashlib.md5()
for buf in f.read(128):
d.update(buf)
return d.hexdigest()
Теперь, если я запускаю этот код с помощью python3, он вызывает исключение TypeError:
d.update(buf)
TypeError: object supporting the buffer API required
я понял, что могу заставить этот код работать с python2 и python3, изменив его на:
def md5sum(filename):
f = open(filename, mode='r')
d = hashlib.md5()
for buf in f.read(128):
d.update(buf.encode())
return d.hexdigest()
Теперь я все еще задаюсь вопросом, почему исходный код перестал работать. Кажется, что при открытии файла с помощью модификатора двоичного режима он возвращает целые числа вместо строк, закодированных в байтах(я говорю, что, поскольку type (buf) возвращает int). Это поведение где-то объясняется ?
3 ответов
Я думаю, вы хотели, чтобы for-loop делал последовательные вызовы f.read(128)
. Это можно сделать с помощью iter () и functools.partial ():
import hashlib
from functools import partial
def md5sum(filename):
with open(filename, mode='rb') as f:
d = hashlib.md5()
for buf in iter(partial(f.read, 128), b''):
d.update(buf)
return d.hexdigest()
print(md5sum('utils.py'))
for buf in f.read(128):
d.update(buf)
.. обновляет хэш последовательно с каждым из первых 128 байт значения из файла. Начиная с итерации над bytes
производит int
объекты, вы получаете следующие вызовы, которые вызывают ошибку, с которой вы столкнулись в Python3.
d.update(97)
d.update(98)
d.update(99)
d.update(100)
это не то, что вы хотите.
вместо этого, вы хотите:
def md5sum(filename):
with open(filename, mode='rb') as f:
d = hashlib.md5()
while True:
buf = f.read(4096) # 128 is smaller than the typical filesystem block
if not buf:
break
d.update(buf)
return d.hexdigest()
Я, наконец, изменил свой код на версию ниже (которую мне легко понять) после того, как задал вопрос. Но я, вероятно, изменить его к версии, предложенной Hetting Раймон unsing functools.частичный.
import hashlib
def chunks(filename, chunksize):
f = open(filename, mode='rb')
buf = "Let's go"
while len(buf):
buf = f.read(chunksize)
yield buf
def md5sum(filename):
d = hashlib.md5()
for buf in chunks(filename, 128):
d.update(buf)
return d.hexdigest()