Обмеження S3 для об’єктів у відрі


85

Хтось знає, чи існує обмеження на кількість об’єктів, які я можу помістити в відро S3? чи можу я покласти мільйон, 10 мільйонів тощо .. все в одне відро?


1
Чому б не впустити мільйон або 10 мільйонів і не дізнатись?
PurplePilot

27
10 000 запитів на 0,01 долари можуть стати дорогими, щоб дізнатись про обмеження. Дякую за цитату нижче
Quotient

1
Його 20 000 за 0,01 долара зараз
Петах

Відповіді:


91

За даними Amazon:

Записуйте, читайте та видаляйте об'єкти, що містять від 0 байт до 5 терабайт даних кожен. Кількість об'єктів, які ви можете зберігати, необмежена.

Джерело: http://aws.amazon.com/s3/details/ станом на 3 вересня 2015 року.


3
Примітка: 5 Гб - це максимум для кожного PUT. Якщо ви хочете завантажити об’єкт об’ємом 5 ТБ, вам потрібно буде ввімкнути багаточасткове завантаження .
whiteshooz

Незважаючи на те, що 5 ТБ - це максимальний розмір файлу, ви також можете зберігати об’єкти розміром 0 байт . Джерело: Q: Скільки даних я можу зберігати в Amazon S3?
Норберт

17

Схоже, ліміт змінився. Ви можете зберегти 5 ТБ для одного об’єкта.

Загальний обсяг даних та кількість об’єктів, які ви можете зберігати, необмежені. Розмір окремих об’єктів Amazon S3 може становити від мінімум 0 байт до максимум 5 терабайт. Найбільший об’єкт, який можна завантажити за один PUT - це 5 гігабайт. Для об’єктів, розмір яких перевищує 100 мегабайт, клієнти повинні розглянути можливість використання функції багатозавантаженого завантаження.

http://aws.amazon.com/s3/faqs/#How_much_data_can_I_store


11
  • Немає обмежень на об’єкти на відро.
  • Існує обмеження в 100 відер на обліковий запис (якщо вам потрібно більше, потрібно запитати Amazon).
  • Не спостерігається зниження продуктивності, навіть якщо ви зберігаєте мільйони об’єктів в одному сегменті.

З документів,

Немає обмежень на кількість об’єктів, які можна зберігати в сегменті, і немає різниці в продуктивності, використовуєте ви багато сегментів або лише декілька. Ви можете зберігати всі свої об’єкти в одному сегменті, або можете організувати їх у декілька сегментів.

станом на серпень 2016 року


3
Префікс організації / ключа об’єктів у сегменті може змінити ситуацію, коли ви працюєте з мільйонами об’єктів. Дивіться aws.amazon.com/blogs/aws/…
Трентон,

docs.aws.amazon.com/AmazonS3/latest/dev/… говорить: "Вам більше не потрібно рандомізувати імена префіксів для продуктивності." Але з документації незрозуміло, як S3 виконує індексацію (хешування? B-дерева?) Та чи може він ефективно перераховувати об'єкти, що відповідають префіксу. Наступна застаріла документація пропонує деякі підказки: aws.amazon.com/blogs/aws/…
Дон Сміт,

7

Хоча ви можете зберігати необмежену кількість файлів / об'єктів в одному сегменті, коли ви переходите до списку "каталогу" у сегменті, це дасть вам лише перші 1000 файлів / об'єктів у цьому сегменті за замовчуванням. Щоб отримати доступ до всіх файлів у такому великому "каталозі", вам потрібно зробити кілька дзвінків до їх API.


2

Немає обмежень щодо кількості об’єктів, які ви можете зберігати у своєму сегменті S3. AWS заявляє, що має необмежений обсяг пам’яті. Однак є деякі обмеження -

  1. За замовчуванням клієнти можуть надавати до 100 сегментів на один рахунок AWS. Тим не менш, ви можете збільшити обмеження на сегмент Amazon S3, відвідавши Обмеження обслуговування AWS.
  2. Об'єкт може бути від 0 байт до 5 ТБ.
  3. Найбільший об’єкт, який можна завантажити за один PUT - це 5 гігабайт
  4. Для об’єктів, розмір яких перевищує 100 мегабайт, клієнти повинні розглянути можливість використання функції багатозавантаженого завантаження.

З огляду на це, якщо у вас дійсно багато об’єктів, які потрібно зберігати в сегменті S3, розгляньте випадковий вибір префікса імені об’єкта для підвищення продуктивності.

Коли ваше робоче навантаження являє собою суміш типів запитів, внесіть деяку випадковість до назв ключів, додавши хеш-рядок як префікс до імені ключа. Вводячи випадковість до імен ваших ключів, навантаження вводу-виводу розподілятиметься між кількома розділами індексу. Наприклад, ви можете обчислити хеш MD5 послідовності символів, яку ви плануєте призначити в якості ключа, і додати 3 або 4 символи з хешу як префікс до імені ключа.

Детальніше - https://aws.amazon.com/premiumsupport/knowledge-center/s3-bucket-performance-improve/

- Станом на червень 2018 року


0

"Ви можете зберігати в сегменті скільки завгодно об’єктів, а також писати, читати та видаляти об’єкти у своєму сегменті. Об’єкти можуть мати розмір до 5 терабайт"

з http://aws.amazon.com/s3/details/ (станом на 4 березня 2015 р.)


-1

@ Acyra - ефективність доставки об'єктів з одного сегмента буде сильно залежати від назв об'єктів у ньому.

Якщо імена файлів були віддалені випадковими символами, їх фізичне розташування буде розподілено далі на апаратному забезпеченні AWS, але якщо ви все назвали 'common-x.jpg', 'common-y.jpg', тоді ці об'єкти будуть зберігатися разом.

Це може сповільнити доставку файлів, якщо ви запитуєте їх одночасно, але недостатньо, щоб турбувати вас, більший ризик пов'язаний із втратою даних або перебоями, оскільки ці об'єкти зберігаються разом, вони будуть втрачені або недоступні разом.


Чи є у вас якесь посилання на це, чи це освічена здогадка? Я міг здогадатися, що об’єкти S3 шардовані / хешовані за назвою файлу, або я міг здогадатися, що використовується щось більш рандомізоване, як sha1 / md5 або щось інше ... але без вихідного матеріалу я насправді не знаю .
чудово
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.