是否有办法在使用JavaScript上传文件之前计算文件的MD5哈希值?
是否有办法在使用JavaScript上传文件之前计算文件的MD5哈希值?
虽然有JS实现MD5算法,但是旧版浏览器通常无法从本地文件系统中读取文件。
我是在2009年写的。那么新版浏览器呢?
使用支持FileAPI的浏览器,您可以读取文件的内容 - 用户必须已经选择了它,可以通过<input>
元素或拖放方式进行选择。截至2013年1月,以下是主要浏览器的情况:
如何实现?
请参见Benny Neugebauer的下面答案,其中使用了CryptoJS的MD5函数
使用CryptoJS的MD5函数和HTML5 FileReader API计算MD5哈希值非常简单。以下代码片段展示了如何从拖入浏览器的图像中读取二进制数据并计算MD5哈希值:
var holder = document.getElementById('holder');
holder.ondragover = function() {
return false;
};
holder.ondragend = function() {
return false;
};
holder.ondrop = function(event) {
event.preventDefault();
var file = event.dataTransfer.files[0];
var reader = new FileReader();
reader.onload = function(event) {
var binary = event.target.result;
var md5 = CryptoJS.MD5(binary).toString();
console.log(md5);
};
reader.readAsBinaryString(file);
};
我建议添加一些CSS来查看拖放区域:
#holder {
border: 10px dashed #ccc;
width: 300px;
height: 300px;
}
#holder.hover {
border: 10px dashed #333;
}
有关拖放功能的更多信息可以在此处找到:File API&FileReader
我在Google Chrome版本32中测试了样例。
readAsBinaryString()
没有被标准化,并且不受Internet Explorer支持。我没有在Edge中测试过它,但即使是IE11也不支持它。 - StanECryptoJS.lib.WordArray.create(arrayBuffer);
将 ArrayBuffer 转换为 Binary/WordArray。 - Warren Parad我制作了一个库,实现了增量MD5,以便高效地对大文件进行哈希。 基本上,您需要分块读取文件(以保持内存低),并进行增量哈希。 您可以在自述文件中找到基本用法和示例。
请注意,您需要HTML5 FileAPI,因此请确保检查它。 测试文件夹中有完整的示例。
.end()
方法有问题。如果你再次调用这个方法,那么下一次它会给出错误的结果。因为.end()
在内部调用了.reset()
。这是一个编码灾难,对于库的编写来说并不好。 - iammilind下面的代码片段展示了一个示例,可以在读取和计算文件哈希值时实现每秒 400 MB 的吞吐量。
它使用名为 hash-wasm 的库,该库基于 WebAssembly 技术,比仅使用 JavaScript 的库更快地计算哈希值。截至2020年,所有现代浏览器都支持 WebAssembly。
const chunkSize = 64 * 1024 * 1024;
const fileReader = new FileReader();
let hasher = null;
function hashChunk(chunk) {
return new Promise((resolve, reject) => {
fileReader.onload = async(e) => {
const view = new Uint8Array(e.target.result);
hasher.update(view);
resolve();
};
fileReader.readAsArrayBuffer(chunk);
});
}
const readFile = async(file) => {
if (hasher) {
hasher.init();
} else {
hasher = await hashwasm.createMD5();
}
const chunkNumber = Math.floor(file.size / chunkSize);
for (let i = 0; i <= chunkNumber; i++) {
const chunk = file.slice(
chunkSize * i,
Math.min(chunkSize * (i + 1), file.size)
);
await hashChunk(chunk);
}
const hash = hasher.digest();
return Promise.resolve(hash);
};
const fileSelector = document.getElementById("file-input");
const resultElement = document.getElementById("result");
fileSelector.addEventListener("change", async(event) => {
const file = event.target.files[0];
resultElement.innerHTML = "Loading...";
const start = Date.now();
const hash = await readFile(file);
const end = Date.now();
const duration = end - start;
const fileSizeMB = file.size / 1024 / 1024;
const throughput = fileSizeMB / (duration / 1000);
resultElement.innerHTML = `
Hash: ${hash}<br>
Duration: ${duration} ms<br>
Throughput: ${throughput.toFixed(2)} MB/s
`;
});
<script src="https://cdn.jsdelivr.net/npm/hash-wasm"></script>
<!-- defines the global `hashwasm` variable -->
<input type="file" id="file-input">
<div id="result"></div>
spark-md5
和Q
假设您正在使用支持HTML5文件API的现代浏览器,以下是如何计算大文件的MD5哈希值(它将在可变块上计算哈希值)。
function calculateMD5Hash(file, bufferSize) {
var def = Q.defer();
var fileReader = new FileReader();
var fileSlicer = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice;
var hashAlgorithm = new SparkMD5();
var totalParts = Math.ceil(file.size / bufferSize);
var currentPart = 0;
var startTime = new Date().getTime();
fileReader.onload = function(e) {
currentPart += 1;
def.notify({
currentPart: currentPart,
totalParts: totalParts
});
var buffer = e.target.result;
hashAlgorithm.appendBinary(buffer);
if (currentPart < totalParts) {
processNextPart();
return;
}
def.resolve({
hashResult: hashAlgorithm.end(),
duration: new Date().getTime() - startTime
});
};
fileReader.onerror = function(e) {
def.reject(e);
};
function processNextPart() {
var start = currentPart * bufferSize;
var end = Math.min(start + bufferSize, file.size);
fileReader.readAsBinaryString(fileSlicer.call(file, start, end));
}
processNextPart();
return def.promise;
}
function calculate() {
var input = document.getElementById('file');
if (!input.files.length) {
return;
}
var file = input.files[0];
var bufferSize = Math.pow(1024, 2) * 10; // 10MB
calculateMD5Hash(file, bufferSize).then(
function(result) {
// Success
console.log(result);
},
function(err) {
// There was an error,
},
function(progress) {
// We get notified of the progress as it is executed
console.log(progress.currentPart, 'of', progress.totalParts, 'Total bytes:', progress.currentPart * bufferSize, 'of', progress.totalParts * bufferSize);
});
}
<script src="https://cdnjs.cloudflare.com/ajax/libs/q.js/1.4.1/q.js"></script>
<script src="https://cdnjs.cloudflare.com/ajax/libs/spark-md5/2.0.2/spark-md5.min.js"></script>
<div>
<input type="file" id="file"/>
<input type="button" onclick="calculate();" value="Calculate" class="btn primary" />
</div>
您需要使用FileAPI。它在最新的FF和Chrome浏览器中可用,但不支持IE9。 选择上述任何md5 JS实现建议。我已经尝试过这个并放弃了,因为JS太慢了(大型图像文件需要几分钟时间)。如果有人使用类型数组重新编写MD5,则可能会重新考虑它。
代码看起来像这样:
HTML:
<input type="file" id="file-dialog" multiple="true" accept="image/*">
JS (w JQuery)
$("#file-dialog").change(function() {
handleFiles(this.files);
});
function handleFiles(files) {
for (var i=0; i<files.length; i++) {
var reader = new FileReader();
reader.onload = function() {
var md5 = binl_md5(reader.result, reader.result.length);
console.log("MD5 is " + md5);
};
reader.onerror = function() {
console.error("Could not read the file");
};
reader.readAsBinaryString(files.item(i));
}
}
reader
变量将会是最后一个文件。 - DaveCryptoJS.lib.WordArray.create(arrayBuffer);
- Warren Parad async sha256(file: File) {
// get byte array of file
let buffer = await file.arrayBuffer();
// hash the message
const hashBuffer = await crypto.subtle.digest('SHA-256', buffer);
// convert ArrayBuffer to Array
const hashArray = Array.from(new Uint8Array(hashBuffer));
// convert bytes to hex string
const hashHex = hashArray.map(b => b.toString(16).padStart(2, '0')).join('');
return hashHex;
}
希望您现在已经找到了一个好的解决方案。如果没有,下面的解决方案是基于js-spark-md5的ES6 Promise实现。
import SparkMD5 from 'spark-md5';
// Read in chunks of 2MB
const CHUCK_SIZE = 2097152;
/**
* Incrementally calculate checksum of a given file based on MD5 algorithm
*/
export const checksum = (file) =>
new Promise((resolve, reject) => {
let currentChunk = 0;
const chunks = Math.ceil(file.size / CHUCK_SIZE);
const blobSlice =
File.prototype.slice ||
File.prototype.mozSlice ||
File.prototype.webkitSlice;
const spark = new SparkMD5.ArrayBuffer();
const fileReader = new FileReader();
const loadNext = () => {
const start = currentChunk * CHUCK_SIZE;
const end =
start + CHUCK_SIZE >= file.size ? file.size : start + CHUCK_SIZE;
// Selectively read the file and only store part of it in memory.
// This allows client-side applications to process huge files without the need for huge memory
fileReader.readAsArrayBuffer(blobSlice.call(file, start, end));
};
fileReader.onload = e => {
spark.append(e.target.result);
currentChunk++;
if (currentChunk < chunks) loadNext();
else resolve(spark.end());
};
fileReader.onerror = () => {
return reject('Calculating file checksum failed');
};
loadNext();
});