Я створив папку в s3 з назвою "test", і я вставив "test_1.jpg", "test_2.jpg" у "test".
Як я можу використовувати бото для видалення папки "test"?
Відповіді:
У S3 немає папок. Натомість ключі утворюють плоский простір імен. Однак ключ із нахиленими рисками в назві відображається спеціально в деяких програмах, включаючи консоль AWS (див., Наприклад, бото Amazon S3 - як створити папку? ).
Замість того, щоб видаляти "каталог", ви можете (і повинні) перераховувати файли за префіксом та видаляти. По суті:
for key in bucket.list(prefix='your/directory/'):
key.delete()
Однак інші відповіді на цій сторінці мають більш ефективні підходи.
Зверніть увагу, що префікс просто шукається за допомогою фіктивного пошуку рядків. Якби префікс був , тобто без доданої кінцевої риски, програма також із задоволенням видалила б your/directory
your/directory-that-you-wanted-to-remove-is-definitely-not-this-one
.
Для отримання додаткової інформації див. Розділи Клавіші списку бото S3 іноді повертають ключ каталогу.
Ось версія 2018 (майже 2019):
s3 = boto3.resource('s3')
bucket = s3.Bucket('mybucket')
bucket.objects.filter(Prefix="myprefix/").delete()
Я відчуваю, що минув якийсь час, і boto3 має кілька різних способів досягнення цієї мети. Це передбачає, що ви хочете видалити тестову "папку" та всі її об'єкти. Ось один із способів:
s3 = boto3.resource('s3')
objects_to_delete = s3.meta.client.list_objects(Bucket="MyBucket", Prefix="myfolder/test/")
delete_keys = {'Objects' : []}
delete_keys['Objects'] = [{'Key' : k} for k in [obj['Key'] for obj in objects_to_delete.get('Contents', [])]]
s3.meta.client.delete_objects(Bucket="MyBucket", Delete=delete_keys)
Це має зробити два запити, один для отримання об’єктів у папці, другий для видалення всіх об’єктів у зазначеній папці.
https://boto3.readthedocs.org/en/latest/reference/services/s3.html#S3.Client.delete_objects
list_objects
не може повернути більше 1000 ключів, тому вам потрібно запустити цей код кілька разів.
boto3
, а не в бото
import boto3; def lambda_handler(event, context): '''Code from above'''
. Переконайтеся, що ви дали своєму Lambda дозвіл на видалення з S3 та продовження часу очікування.
Ви можете використовувати bucket.delete_keys () зі списком ключів (з великою кількістю ключів я виявив, що це на порядок швидше, ніж використання key.delete).
Щось на зразок цього:
delete_key_list = []
for key in bucket.list(prefix='/your/directory/'):
delete_key_list.append(key)
if len(delete_key_list) > 100:
bucket.delete_keys(delete_key_list)
delete_key_list = []
if len(delete_key_list) > 0:
bucket.delete_keys(delete_key_list)
Невелике вдосконалення рішення Патріка. Як ви могли знати, обидва list_objects()
і delete_objects()
мають обмеження об’єкта 1000. Ось чому вам доводиться переносити сторінки на сторінки та видаляти їх у шматках. Це досить універсальне і ви можете дати , Prefix
щоб paginator.paginate()
видалити підкаталоги / доріжки
client = boto3.client('s3', **credentials)
paginator = client.get_paginator('list_objects_v2')
pages = paginator.paginate(Bucket=self.bucket_name)
delete_us = dict(Objects=[])
for item in pages.search('Contents'):
delete_us['Objects'].append(dict(Key=item['Key']))
# flush once aws limit reached
if len(delete_us['Objects']) >= 1000:
client.delete_objects(Bucket=bucket, Delete=delete_us)
delete_us = dict(Objects=[])
# flush rest
if len(delete_us['Objects']):
client.delete_objects(Bucket=bucket, Delete=delete_us)
Prefix
ключове слово в paginator.paginate()
Переглянути всі варіанти: boto3.readthedocs.io/en/latest/reference/services/…
Prefix
фільтром, запропонованим @Chad , мені довелося додати if item is not None
перевірку перед видаленням (оскільки деякі мої префікси S3 не існували / не мали об’єктів)