Questão Quanto espaço para deixar livre no disco rígido ou no SSD?


Na imprensa de tecnologia informal (ou seja, jornalística), e em blogs de tecnologia on-line e fóruns de discussão, costuma-se encontrar um conselho informal para deixar uma certa quantidade de espaço livre em unidades de disco rígido ou unidades de estado sólido. Várias razões para isso são dadas, ou às vezes não há razão alguma. Como tal, essas alegações, embora talvez razoáveis ​​na prática, tenham um ar mítico sobre elas. Por exemplo:

  • Uma vez que seu (s) disco (s) estejam 80% cheios, você deve considerá-los cheioe você deve imediatamente excluir ou atualizar. Se eles acertarem 90% Completamente, você deve considerar suas próprias calças pessoais para estar em fogo real, e reagir com uma quantidade apropriada de imediatismo para remediar isso. (Fonte.)

  • Para manter a coleta de lixo em alta eficiência, os conselhos tradicionais visam manter de 20 a 30% do seu disco vazio. (Fonte.)

  • Já me disseram que eu deveria deixar cerca de 20% grátis em um HD para um melhor desempenho, que um HD realmente fica mais lento quando está quase cheio. (Fonte.)

  • Você deve deixar espaço para os arquivos de permuta e arquivos temporários. Eu atualmente deixo livre de 33% e prometo não ficar abaixo de 10 GB de espaço livre em HD. (Fonte.)

  • Eu diria tipicamente 15%, mas com o tamanho dos discos rígidos agora, desde que você tenha o suficiente para seus arquivos temporários e arquivos de troca, tecnicamente você está seguro. (Fonte.)

  • Eu recomendaria 10% mais no Windows, porque a desfragmentação não será executada se não houver muito espaço livre na unidade quando você executá-lo. (Fonte.)

  • Você geralmente quer deixar cerca de 10% livre para evitar a fragmentação (Fonte.)

  • Se a sua unidade estiver consistentemente acima de 75 ou 80%, vale a pena considerar a atualização para um SSD maior. (Fonte.)

Houve alguma pesquisa, preferencialmente publicada em uma revista peer-reviewed, na porcentagem ou quantidade absoluta de espaço livre exigido por combinações específicas de sistemas operacionais, sistema de arquivos e tecnologia de armazenamento (por exemplo, placa magnética vs. estado sólido)? (Idealmente, tal pesquisa também explicaria a razão para não exceder a quantidade específica de espaço usado, por exemplo, a fim de evitar que o sistema fique sem espaço de trocaou para evitar perda de desempenho.)

Se você souber de alguma pesquisa desse tipo, ficaria muito grato se pudesse responder com um link a ela, além de um breve resumo das descobertas. Obrigado!


101


origem


Não sei sobre as descobertas da pesquisa, mas sei das minhas próprias descobertas. Não haverá penalidade de desempenho (além de acessos de diretório marginalmente mais lentos) em uma unidade quase cheia se todos os seus arquivos forem desfragmentados. O problema é que muitos desfragmentadores otimizam a fragmentação de arquivos, mas no processo deixam o espaço livre ainda mais fragmentado, de modo que novos arquivos se tornam imediatamente fragmentados. A fragmentação do espaço livre torna-se muito pior à medida que os discos ficam cheios. - AFH
@Abdul - Um monte de conselhos sobre o tamanho do arquivo de troca é enganoso. O principal requisito é ter memória suficiente (real e virtual) para todos os programas que você quer que estejam ativados ao mesmo tempo; portanto, quanto menos memória RAM você tiver, mais troca será necessária. Assim, tomar uma proporção do tamanho da RAM (o dobro é geralmente sugerido) está errado, a não ser como um tamanho inicial arbitrário até você descobrir o quanto realmente precisa. Descubra quanta memória é usada quando o seu sistema está ocupado, então duplique e subtraia o tamanho da RAM: você Nunca quer ficar sem espaço de troca. - AFH
Eu acho que isso realmente depende do que você está usando a unidade para. Se você precisar adicionar e remover toneladas de dados do disco rígido em segmentos grandes, deixo uma quantidade decente de espaço livre com base no tamanho dos arquivos que você precisa mover. 10-20% parece uma sugestão geral razoável, mas não tenho nada para apoiar isso além da experiência pessoal. - David
@EugenRieck, veja o filme de Jon Turney "Fim do show de pares"(Novo cientista22 de setembro de 1990). A revisão por pares é conhecida por ser imperfeita, mas há poucas opções melhores. Mesmo um papel medíocre e errôneo deveria ser mais falsificável do que uma afirmação vaga e passageira em um blog ou fórum, tornando-o um melhor ponto de partida para o entendimento. - sampablokuper
@EugenRieck: "peer-review Money makers"; alguns editores são mais ético do que outras. (Caso você esteja se perguntando, sim eu conheço a tragédia de U.S. v. Aaron Swartz. "Esses dois mundos não compartilham nenhuma sobreposição."Felizmente, eles fazem. Nas universidades e em outros lugares, eu vejo administradores e acadêmicos tanto se beneficiando de ambos SE e PR. Por favor, vamos ficar no tópico agora, obrigado :) - sampablokuper


Respostas:


Houve alguma pesquisa, preferencialmente publicada em um periódico revisado por pares […]?

É preciso voltar muito mais do que 20 anos, de administração do sistema ou não, para isso. Este foi um tema quente, pelo menos no mundo dos computadores pessoais e sistemas operacionais de estação de trabalho, há mais de 30 anos; o tempo em que o pessoal do BSD estava desenvolvendo o Berkeley Fast FileSystem e a Microsoft e a IBM estavam desenvolvendo o FileSystem de alto desempenho.

A literatura sobre os dois pelos seus criadores discute as formas que estes sistemas de arquivos foram organizados para que o política de alocação de blocosproduziu melhor desempenho ao tentar tornar contíguos os blocos de arquivos consecutivos. Você pode encontrar discussões sobre isso, e do fato de que a quantidade e a localização do espaço livre deixado para alocar os blocos afeta o posicionamento dos blocos e, portanto, o desempenho, nos artigos contemporâneos sobre o assunto.

Deve ser bastante óbvio, por exemplo, a partir da descrição do algoritmo de alocação de blocos do FFS de Berkeley que, se não houver espaço livre no grupo de cilindros atual e secundário, o algoritmo alcança o fallback do quarto nível ("aplicar uma busca exaustiva" para todos os grupos de cilindros ") o desempenho de alocação de blocos de disco sofrerá também a fragmentação do arquivo (e, portanto, o desempenho de leitura).

São essas e outras análises semelhantes (sendo que estas estão longe de serem os únicos projetos de sistemas de arquivos que visavam melhorar as políticas de layout dos projetos de sistemas de arquivos da época) sobre os quais a sabedoria recebida dos últimos 30 anos se baseou.

Por exemplo: O ditado no artigo original de que os volumes FFS são mantidos abaixo de 90%, para que o desempenho não sofra com base em experimentos feitos pelos criadores, pode ser encontrado sem crítica, mesmo em livros sobre sistemas de arquivos Unix publicados neste século. (por exemplo, Pate2003 p. 216). Poucas pessoas questionam isso, embora Amir H. Majidimehr realmente tenha feito o século anterior, dizendo que xe na prática não observou um efeito perceptível; não menos importante por causa do mecanismo comum do Unix que reserva os 10% finais para o uso do superusuário, o que significa que um disco cheio de 90% está efetivamente 100% cheio para os não-superusuários de qualquer forma  (Majidimehr, 1996, p. 68). O mesmo aconteceu com Bill Calkins, que na prática pode preencher até 99%, com tamanhos de disco do século XXI, antes de observar os efeitos do baixo espaço livre porque até 1% dos discos de tamanho moderno é suficiente para ter muito espaço livre não fragmentado ainda para brincar (Calkins2002 p. 450).

Este último é um exemplo de como a sabedoria recebida pode se tornar errada. Existem outros exemplos disso. Assim como os mundos SCSI e ATA de endereçamento de bloco lógico e gravação de bits zonados em vez disso, joguei fora da janela todos os cálculos cuidadosos de latência rotacional no design do sistema de arquivos BSD, então a mecânica física dos SSDs joga fora da janela o espaço livre recebido sabedoria que se aplica aos discos Winchester.

Com SSDs, a quantidade de espaço livre no dispositivo como um todo, ou seja, em todos os volumes no disco e entre eles, tem um efeito tanto no desempenho quanto na vida útil. E a própria base para a ideia de que um arquivo precisa ser armazenado em blocos com endereços de blocos lógicos contíguos é minado pelo fato de que os SSDs não têm discos para girar e cabeças para procurar. As regras mudam novamente.

Com SSDs, a quantidade mínima recomendada de espaço livre é Maisdo que os 10% tradicionais que vêm de experimentos com discos Winchester e Berkeley FFS há 33 anos. Anand Lal Shimpi dá 25%, por exemplo. Esta diferença é composta pelo fato de que isso tem que ser espaço livre em todo o dispositivo, enquanto o valor de 10% é dentro de cada volume único FFSe, portanto, é afetado pelo fato de o programa de particionamento saber ao TRIM todo o espaço que não está alocado a um volume de disco válido pela tabela de partições.

Ele também é composto por complexidades, como drivers do sistema de arquivos TRIM-aware que podem TRIM espaço livre dentro volumes de disco, eo fato de que os fabricantes de SSDs também  alocar variados graus de espaço reservado que nem sequer é visível para fora do dispositivo (isto é, para o hospedeiro) para vários usos, tais como coleta de lixo e nivelamento de desgaste.

Bibliografia


8



"Bibliografia" é um pouco inútil sem referências no texto. - ivan_pozdeev


Embora eu não possa falar sobre “pesquisas” sendo publicadas por “revistas revisadas por pares” - e eu não gostaria de ter que confiar nelas para o trabalho do dia-a-dia - eu posso falar sobre as realidades de centenas de produção servidores sob uma variedade de sistemas operacionais ao longo de muitos anos:

Existem três razões pelas quais um disco inteiro reduz o desempenho:

  • Falta de espaço livre: Pense em arquivos temporários, atualizações, etc.
  • Degradação do sistema de arquivos: a maioria dos sistemas de arquivos sofre sua capacidade de organizar de maneira ideal os arquivos, se não houver espaço suficiente
  • Degradação do nível de hardware: os discos SSD e SMR sem espaço livre suficiente mostrarão rendimento reduzido e - pior ainda - maior latência (às vezes em muitas ordens de grandeza)

O primeiro ponto é trivial, especialmente porque nenhum sistema de produção sã usaria o espaço de troca em arquivos dinamicamente expansivos e encolhidos.

O segundo ponto difere muito entre sistemas de arquivos e carga de trabalho. Para um sistema Windows com carga de trabalho mista, um limite de 70% acaba por ser bastante utilizável. Para um sistema de arquivos ext4 do Linux com poucos, mas grandes arquivos (por exemplo, sistemas de transmissão de vídeo), isso pode ir até 90 +%.

O terceiro ponto é dependente de hardware e firmware, mas especialmente os SSDs com um controlador Sandforce podem recuar na eliminação de blocos livres em cargas de trabalho de alta gravação, levando a escrever latências aumentando em milhares de por cento. Geralmente deixamos 25% livres no nível da partição e observamos uma taxa de preenchimento abaixo de 80%.

Recomendações

Percebo que mencionei como Certifique-se de que uma taxa máxima de preenchimento é aplicada. Alguns pensamentos aleatórios, nenhum deles "revisado por pares" (pagos, falsificados ou reais), mas todos eles de sistemas de produção.

  • Use limites do sistema de arquivos: /var não pertence ao sistema de arquivos raiz.
  • Monitoramento, monitoramento, monitoramento. Use uma solução pronta se ela se adequar a você, senão analise a saída de df -h e deixe o alarme soar no caso. Isso pode salvar você de 30 kernels em um root fs com upgrades automáticos instalados e em execução sem a opção autoremove.
  • Pese a possível interrupção de um estouro de fs contra o custo de torná-lo maior em primeiro lugar: se você não estiver em um dispositivo incorporado, você pode dobrar esse 4G para raiz.

49



Isso é útil: é mais detalhado e tem maior poder explicativo do que a anedota típica. Eu inventei isso de acordo. Mas eu realmente quero evidências mais sólidas do que apenas "alguém na internet diz que esta é a sua experiência". - sampablokuper
Eu gosto de pensar ao ler esta resposta, uma nota importante é que não existe uma resposta 'final', e que você pode encontrar mais detalhes que você estava procurando pensando em cada caso de uso. Eu definitivamente entendi como resolver melhor o problema aqui quando Eugen listou quais processos significativos poderiam usar esse último espaço disponível. - Pysis
O primeiro ponto não é trivial agora que o câncer sistêmico consumiu a maior parte das distros. /var enche e seu servidor cai. - chrylis
Eugen Rieck - Eu odeio dizer, mas sua resposta é sobre a) o que você faz; eb) porque é útil. Não vejo indicações para pesquisas relevantes, por exemplo o que acontece se você preencher mais de 70% em um sistema Windows. Observe que a pergunta original era sobre pesquisas reais (não necessariamente revisadas por pares). - Ott Toomet
@sampablokuper Um conselho sólido para você: as prioridades acadêmicas são muito diferentes das prioridades de operações do dia a dia. É por isso que seu diploma universitário não o preparou para esse problema. Acadêmicos raramente se importam tanto com os problemas práticos diários desses sistemas. Sempre verifique suas informações para sanidade, mas, além disso, confie nas pessoas que realmente executam esses sistemas com sucesso ao invés de algumas tartes no papel do céu. Você também tem a vantagem de ter informações de crowdsourcing, o que reduz muito a probabilidade de você obter informações sobre o lixo. - jpmc26


Houve alguma pesquisa ... na porcentagem ou quantidade absoluta de espaço livre exigido por combinações específicas de sistemas operacionais, sistema de arquivos e tecnologia de armazenamento ...?

Em 20 anos de administração do sistema, nunca encontrei uma pesquisa detalhando os requisitos de espaço livre de várias configurações. Eu suspeito que isso é porque os computadores são tão variados que seria difícil fazer por causa do grande número de configurações possíveis do sistema.

Para determinar quanto espaço livre requer um sistema, deve-se considerar duas variáveis:

  1. O espaço mínimo necessário para evitar comportamento indesejado,que em si pode ter uma definição fluida.

    Note que é inútil definir o espaço livre exigido apenas por essa definição, já que é o equivalente a dizer que é seguro dirigir 80 km / h em direção a uma parede de tijolos até o ponto exato em que você colidir com ela.

  2. A taxa na qual o armazenamento é consumido, o que determina uma quantidade variável adicional de espaço reservado, para que o sistema não seja degradado antes de o administrador ter tempo de reagir.

A combinação específica de sistema operacional, sistemas de arquivos, arquitetura de armazenamento subjacente, juntamente com o comportamento do aplicativo, a configuração da memória virtual, etc., cria um grande desafio para quem deseja fornecer requisitos definitivos de espaço livre.

É por isso que existem tantos "nuggets" de conselhos por aí. Você notará que muitos deles fazem uma recomendação em torno de uma configuração específica. Por exemplo, "Se você tem um SSD que está sujeito a problemas de desempenho ao se aproximar da capacidade, fique acima de 20% do espaço livre".

Como não há uma resposta simples para essa pergunta, a abordagem correta para identificar seu O requisito mínimo de espaço livre do sistema é considerar as várias recomendações genéricas à luz da configuração específica do sistema, definir um limite, monitorá-lo e estar disposto a ajustá-lo conforme necessário.

Ou você pode manter pelo menos 20% de espaço livre. A menos que você tenha um volume RAID 6 de 42 TB apoiado por uma combinação de SSDs e discos rígidos tradicionais e um arquivo de troca pré-alocado ... (isso é uma piada para os caras sérios).


29



Obrigado pela resposta :) Gostaria de pegar um dos seus pontos: "Não é necessário justificar o conselho para deixar algum espaço livre, já que a consequência de uma máquina empobrecida é auto-evidente."Não, não é auto-evidente. Surpreende as pessoas mais do que você poderia esperar. E combinações diferentes de sistema operacional, sistema de arquivos, etc, provavelmente responderão a essa situação de maneiras diferentes: algumas podem avisar; algumas podem falhar sem aviso, quem sabe? Então, seria ótimo para brilhar mais luz sobre isso. Daí a minha pergunta :) - sampablokuper
Quando afirmo que é auto-evidente, existem consequências de uma máquina empobrecida em armazenamento, Eu não estou descrevendo essas conseqüências, mas sim afirmando que máquinas de armazenamento esgotadas sempre experimentam uma conseqüência. Enquanto tento provar em minha resposta, a natureza dessas consequências e a "melhor" quantidade de espaço livre para evitá-las são altamente específicas da configuração. Suponho que se poderia tentar catalogar todos eles, mas acho que seria mais confuso do que útil. - Twisty Impersonator
Além disso, se você quiser perguntar como configurações específicas provavelmente reagirão a pouco espaço em disco (por exemplo, com avisos, problemas de desempenho, falhas etc.), edite sua pergunta de acordo. - Twisty Impersonator
Eu adicionaria três perguntas extras: 3. Quais são as mudanças mais prováveis ​​e piores no consumo de disco com base nas previsões futuras de crescimento do seu negócio, 4. custo para o negócio se você ficar sem espaço em disco e 5. quanto tempo leva? você precisa aumentar significativamente sua capacidade de disco. Um de meus clientes tem 250TB de zfs no local, no caso deles precisariam saber algumas semanas antes de mudanças significativas, já que leva cerca de um dia para adicionar cada disco maior no array de ataque e aposentar o menor. - iheggie


É claro que uma unidade propriamente dita (HDD ou SSD) não poderia se importar menos com quantas porcentagens estão em uso, além de os SSDs poderem apagar seu espaço livre antecipadamente. O desempenho de leitura será exatamente o mesmo e o desempenho de gravação poderá ser um pouco pior no SSD. De qualquer forma, o desempenho de gravação não é tão importante em uma unidade quase cheia, já que não há espaço para escrever nada.

Seu sistema operacional, sistema de arquivos e aplicativos, por outro lado, esperam que você tenha espaço livre disponível o tempo todo. 20 anos atrás era típico para um aplicativo verificar quanto espaço você tinha na unidade antes de tentar salvar seus arquivos lá. Hoje, a aplicação cria arquivos temporários sem pedir sua permissão e, normalmente, travar ou se comportar de maneira irregular quando eles não o fazem.

Sistemas de arquivos têm uma expectativa semelhante. Por exemplo, o NTFS reserva uma grande parte do seu disco para a MFT, mas ainda mostra esse espaço como gratuito. Quando você preenche seu disco NTFS acima de 80% de sua capacidade, você obtém Fragmentação MFT que tem um impacto muito real no desempenho.

Além disso, ter espaço livre realmente ajuda na fragmentação de arquivos regulares. Sistemas de arquivos tendem a evitar arquivo fragmentação encontrando o lugar certo para cada arquivo, dependendo do seu tamanho. Em um disco de preenchimento próximo, eles terão menos opções, então terão que fazer escolhas mais pobres.

No Windows, você também deve ter espaço em disco suficiente para o arquivo de troca, que pode crescer quando necessário. Se não puder, você deve esperar que seus aplicativos sejam fechados à força. Ter muito pouco espaço de troca pode de fato piorar o desempenho.

Mesmo que a sua troca tenha tamanho fixo, a execução completa do espaço em disco do sistema pode travar o sistema e / ou torná-lo não inicializável (tanto no Windows quanto no Linux), porque o SO espera poder gravar em disco durante a inicialização. Então, sim, atingir 90% do uso do disco deve fazer com que você considere suas tintas em chamas. Nem uma vez vi computadores que não conseguiram inicializar corretamente até que downloads recentes fossem removidos para dar ao SO um pouco de espaço em disco.


11





Para SSDs, deve haver algum espaço restante, pois a taxa de reescrita aumenta e afeta negativamente o desempenho de gravação do disco. Os 80% cheios são provavelmente seguros para todos os discos SSD, alguns modelos mais recentes podem funcionar bem mesmo com 90-95% de capacidade ocupada.

https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/


8



Mod Up - SSDs são muito diferentes dos HDDs. Embora o mecanismo exato seja diferente entre os drives, os SSDs gravam dados [mesmo colocados de maneira idêntica] em locais diferentes do disco e usam a coleta de lixo subsequente para evitar o desgaste excessivo em um ponto (isso é chamado de "wear leveling"). Quanto mais cheio o disco - menos eficazmente pode fazer isso. - Brad
Também vale a pena notar que a razão pela qual alguns discos "mais recentes" funcionam bem é que eles já provisionam uma quantidade decente de espaço vazio a que o usuário não tem acesso (especialmente verdadeiro para SSDs "corporativos"). Isso significa que eles sempre têm "blocos livres" para gravar dados sem o ciclo "read-erase-rewrite" que desacelera os SSDs "completos". - u02sgb
Observe que todos Os SSDs já fazem isso de certa forma e escondem de você. Isso é feito como parte do nivelamento de desgaste. Deixar mais espaço livre dá mais espaço para nivelamento de desgaste. Isso pode ser benéfico para um disco que geralmente é gravado, especialmente se for um modelo TLC barato de SSD. Então, novamente, você perde alguns dos benefícios de um disco barato se tiver que deixar 20% de graça. Finalmente, novos discos certamente não são melhores. A primeira geração de SSDs era de discos SLC e tinha 100.000 ciclos de apagamento. O TLC atual pode ser tão baixo quanto 5000 - 20 vezes pior. - MSalters


As "regras" variam dependendo dos seus requisitos. E há casos especiais, como, por exemplo, o ZFS: "Com capacidade de 90%, o ZFS alterna da otimização baseada no desempenho para o espaço, o que tem implicações de desempenho massivas." Sim, isso é um desenhar aspecto do ZFS ... não é algo derivado via observação ou evidência anedótica. Obviamente, isso é um problema menor se o pool de armazenamento do ZFS consistir apenas em SSDs. No entanto, mesmo com discos giratórios, você pode felizmente alcançar 99% ou 100% quando lida com armazenamento estático e não precisa de desempenho de alto nível - por exemplo, sua coleção de filmes favoritos de todos os tempos, que nunca muda e onde a segurança é prioridade 1.

Em seguida, btrfs - um caso extremo: quando o espaço livre fica muito baixo (alguns MByte), você pode atingir o ponto sem retorno. Não, a exclusão de arquivos não é uma opção, pois você não pode. Simplesmente não há espaço suficiente para excluir arquivos. O btrfs é um sistema de arquivos COW (copy-on-write) e você pode chegar a um ponto em que não pode mais modificar metadados. Neste ponto, você ainda pode adicionar armazenamento adicional ao seu sistema de arquivos (uma pen USB pode funcionar), depois excluir os arquivos do sistema de arquivos expandido, depois reduzir o sistema de arquivos e remover o armazenamento adicional novamente). Mais uma vez, isso é algum aspecto causado pela desenhar do sistema de arquivos.

Pessoas que podem lhe fornecer "dados reais (sérios)" são provavelmente aquelas que lidam com "armazenamento real (sério)". A resposta (excelente) de Twisty menciona matrizes híbridas (consistindo em quantidades massivas de spinning lento barato, muitos discos giratórios rápidos, muitos SSDs ...) que são operados em um ambiente corporativo onde o principal fator limitante é a velocidade na qual o admin é capaz de pedir atualizações. Passar de 16T para 35T pode levar 6 meses ... então você acaba com relatórios gravados que sugerem que você ajuste o alarme para 50%.


8



você claramente nunca levou um pool do zfs a 100%, o que não é algo que deva ser feito intencionalmente. É uma dor, você não pode apagar nada, você terá que truncar alguns arquivos para voltar o acesso de gravação, mesmo para poder excluir qualquer coisa. - camelccc


Existem muitos, muitos fatores que contribuem para o resultado em quantidades muito específicas de configuração. Portanto, não há um número rígido e rápido, isso só pode ser medido como uma função desses parâmetros. (É provavelmente por isso que outros usuários não relatam nenhuma pesquisa específica sobre esse assunto específico - muitas variáveis ​​para compilar qualquer coisa conclusiva.)

  • Hardware

    • O HDD tem todos os seus setores alocados em todos os momentos. Por isso, não importa quantos deles contenham dados atuais do usuário. (Para o controlador, todos os setores contêm alguns dados em todos os momentos, ele apenas lê e sobrescreve como informado.)
    • O controlador do SSD, por outro lado, (de) aloca seus setores dinamicamente, semelhante a um sistema de arquivos. O que torna esse trabalho mais difícil em usos mais altos. Quanto mais difícil e quanto isso afeta o desempenho observável depende de:
      • O desempenho do controlador e a qualidade dos algoritmos
      • Carga de escrita
      • Em uma extensão de carta, carga geral (para dar ao controlador tempo para a coleta de lixo)
      • Overprovision espaço (alguns fabricantes ainda permitem que o cliente escolha pré-encomenda ou alterar dinamicamente)
  • Sistema de arquivo

    • Diferentes sistemas de arquivos são projetados para diferentes cargas e requisitos de processamento do host. Isso pode ser ajustado até certo ponto pelos parâmetros de formato.
    • O desempenho de gravação do FS é uma função do espaço livre e da fragmentação, o desempenho de leitura é uma função apenas da fragmentação. Ele degrada gradualmente desde o começo, então a questão é onde está seu limite tolerável.
  • Tipo de carga

    • Carga de gravação pesada enfatiza rapidamente encontrar e acessar novos blocos livres
    • Carga de leitura pesada enfatiza a consolidação de dados relacionados para que possa ser lida com menos sobrecarga

4