Wczoraj zrobiłem głęboką nocną sesję kodowania i stworzyłem małą aplikację node.js / JS (właściwie CoffeeScript, ale CoffeeScript to tylko JavaScript, powiedzmy, że JS).
jaki jest cel:
- klient wysyła płótno datauri (png) do serwera (przez socket.io)
- serwer przesyła obraz do amazon s3
krok 1 jest zakończony.
serwer ma teraz ciąg a la
data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAMgAAADICAYAAACt...
moje pytanie brzmi: jakie są moje następne kroki, aby „przesłać strumieniowo” / przesłać te dane do Amazon S3 i stworzyć tam rzeczywisty obraz?
knox https://github.com/LearnBoost/knox wydaje się niesamowitą biblioteką do PUT czegoś do S3, ale brakuje mi kleju między ciągiem obrazu zakodowanego w base64 a rzeczywistą akcją przesyłania ?
Wszelkie pomysły, wskazówki i opinie mile widziane.
javascript
node.js
amazon-s3
coffeescript
Franz Enzenhofer
źródło
źródło
Odpowiedzi:
Dla osób, które wciąż borykają się z tym problemem. Oto podejście, które zastosowałem z natywnym aws-sdk:
var AWS = require('aws-sdk'); AWS.config.loadFromPath('./s3_config.json'); var s3Bucket = new AWS.S3( { params: {Bucket: 'myBucket'} } );
Wewnątrz metody routera (ContentType powinien być ustawiony na typ zawartości pliku obrazu):
buf = Buffer.from(req.body.imageBinary.replace(/^data:image\/\w+;base64,/, ""),'base64') var data = { Key: req.body.userId, Body: buf, ContentEncoding: 'base64', ContentType: 'image/jpeg' }; s3Bucket.putObject(data, function(err, data){ if (err) { console.log(err); console.log('Error uploading data: ', data); } else { console.log('successfully uploaded the image!'); } });
plik s3_config.json:
{ "accessKeyId":"xxxxxxxxxxxxxxxx", "secretAccessKey":"xxxxxxxxxxxxxx", "region":"us-east-1" }
źródło
How to make S3 generates a unique KEY to prevent from overriding files?
iIf I don't set the ContentType, when I download the files I won't be able to get the correct file?
chodzi mi o to, że taki uszkodzony plik dostanę? Z góry dziękuję!ContentEncoding: 'base64'
nie jest to poprawne, ponieważnew Buffer(..., 'base64')
dekoduje ciąg zakodowany w base64 do jego reprezentacji binarnej.ok, to jest odpowiedź, jak zapisać dane kanwy do pliku
w zasadzie tak luźno w moim kodzie
buf = new Buffer(data.dataurl.replace(/^data:image\/\w+;base64,/, ""),'base64') req = knoxClient.put('/images/'+filename, { 'Content-Length': buf.length, 'Content-Type':'image/png' }) req.on('response', (res) -> if res.statusCode is 200 console.log('saved to %s', req.url) socket.emit('upload success', imgurl: req.url) else console.log('error %d', req.statusCode) ) req.end(buf)
źródło
Oto kod z jednego artykułu, który napotkałem, zamieszczonego poniżej:
const imageUpload = async (base64) => { const AWS = require('aws-sdk'); const { ACCESS_KEY_ID, SECRET_ACCESS_KEY, AWS_REGION, S3_BUCKET } = process.env; AWS.config.setPromisesDependency(require('bluebird')); AWS.config.update({ accessKeyId: ACCESS_KEY_ID, secretAccessKey: SECRET_ACCESS_KEY, region: AWS_REGION }); const s3 = new AWS.S3(); const base64Data = new Buffer.from(base64.replace(/^data:image\/\w+;base64,/, ""), 'base64'); const type = base64.split(';')[0].split('/')[1]; const userId = 1; const params = { Bucket: S3_BUCKET, Key: `${userId}.${type}`, // type is not required Body: base64Data, ACL: 'public-read', ContentEncoding: 'base64', // required ContentType: `image/${type}` // required. Notice the back ticks } let location = ''; let key = ''; try { const { Location, Key } = await s3.upload(params).promise(); location = Location; key = Key; } catch (error) { } console.log(location, key); return location; } module.exports = imageUpload;
Czytaj więcej: http://docs.aws.amazon.com/AWSJavaScriptSDK/latest/AWS/S3.html#upload-property
Kredyty: https://medium.com/@mayneweb/upload-a-base64-image-data-from-nodejs-to-aws-s3-bucket-6c1bd945420f
źródło
Zaakceptowana odpowiedź działa świetnie, ale jeśli ktoś musi zaakceptować dowolny plik zamiast tylko obrazów, to wyrażenie regularne działa świetnie:
/^data:.+;base64,/
źródło