Automatycznie usuwaj stare elementy z wiadra s3

15

Czy istnieje prosty sposób na skonfigurowanie segmentu w s3 do automatycznego usuwania plików starszych niż x dni?

jdp
źródło

Odpowiedzi:

19

Tymczasem Amazon wprowadził cykle życia S3 (patrz wstępny post na blogu Amazon S3 - Wygaśnięcie obiektu ), w którym można określić maksymalny wiek w dniach dla obiektów w wiadrze - zobacz Wygaśnięcie obiektu, aby uzyskać szczegółowe informacje o jego użyciu za pośrednictwem interfejsu API S3 lub zarządzania AWS Konsola.

Akszat
źródło
+1 za dostarczenie aktualizacji dotyczących tych nieaktualnych informacji, dziękuję!
Steffen Opel
3

Możesz użyć s3cmd do napisania skryptu, który będzie działał przez wiadro i usuwał pliki na podstawie warunku wstępnego.

Musisz na nim napisać kod (bash, python).

Możesz pobrać s3cmd ze strony http://s3tools.org/s3cmd

Lynxman
źródło
3

skrypt powłoki, aby usunąć stare wiadra za pomocą
źródła narzędzia s3cmd : http://shout.setfive.com/2011/12/05/deleting-files-older-than-specified-time-with-s3cmd-and-bash/

#!/bin/bash
# Usage: ./deleteOld "bucketname" "30 days"
s3cmd ls s3://$1 | while read -r line;  do

createDate=`echo $line|awk {'print $1" "$2'}`
createDate=`date -d"$createDate" +%s`
olderThan=`date -d"-$2" +%s`
if [[ $createDate -lt $olderThan ]]
  then 
    fileName=`echo $line|awk '{$1=$2=$3=""; print $0}' | sed 's/^[ \t]*//'`
    echo $fileName
    if [[ $fileName != "" ]]
      then
        s3cmd del "$fileName"
    fi
fi
done;
Kushal
źródło
Zastosowanie: ./deleteOld „nazwa wiadra” „30 dni” np. s3: // dir1 / dir2 / dir3 / bucketname = "dir1 / dir2 / dir3 /" nigdy nie ignoruj ​​ostatniego "/"
co jeśli nazwa pliku ma miejsce i po tym muszę wydrukować wszystkie kolumny, po Video 1280x720 (2)13201781136780000000.mp4prostu daje wideo nie resztę.
Ramratan Gupta,
Mam rozwiązanie od stackoverflow.com/a/9745022/1589444
Ramratan Gupta,
1

Nie, S3 to tylko magazyn danych. Będziesz musiał użyć klienta zewnętrznego, aby okresowo usuwać stare pliki.

Martijn Heemels
źródło
5
To już nie jest prawdą: docs.amazonwebservices.com/AmazonS3/latest/UG/…
Tabitha,
1
Ach, to znacznie ułatwia sprawę. Chociaż w przypadku moich kopii zapasowych nadal wolę wykonać usuwanie ze skryptu, aby mieć pewność, że starsze kopie zapasowe zostaną usunięte dopiero po pomyślnym utworzeniu nowej.
Martijn Heemels,
1

Znalazłem znacznie szybsze rozwiązanie usuwania partii za pomocą AWS cli

#!/usr/bin/env php
<?php
//remove files which were created 24 hrs ago
$fcmd = 'aws s3 ls s3://<bucket>/<prefix>/ | awk \'{$3=""; print $0}\'';//remove file size and handle file with spaces

exec($fcmd, $output, $return_var);
$seconds_24_hour = 24 * 60 * 60;
$file_deleted_count = 0;
if (!empty($output)) {
    $deleted_keys = array();
    foreach ($output as $file) {
        $file_path = substr($file, 21);
        $file_time_stamp = substr($file, 0, 19); //2017-09-19 07:59:41
        if (time() - strtotime($file_time_stamp) > $seconds_24_hour) {
            $deleted_keys[]["Key"] = "<prefix>/" . $file_path;
            $file_deleted_count++;
        }
    }
    if (!empty($deleted_keys)) {
        $json_data_delete = array("Objects" => $deleted_keys);
        echo $cmd = ("aws s3api delete-objects --bucket <bucket> --delete '" . json_encode($json_data_delete) . "'");
        system($cmd);
    }
    echo "\n$file_deleted_count files deleted from content_media\n";
}

Odwołanie do usuwania partii /programming//a/41734090/1589444

Dokumentacja dotycząca obsługi pliku ze spacją ze 100% przypadkiem /programming/36813327/how-to-display-only-files-from-aws-s3-ls-command

Ramratan Gupta
źródło