Pular para o conteúdo
  • Este tópico contém 8 respostas, 6 vozes e foi atualizado pela última vez 14 anos, 3 meses atrás por Rodrigo Almeida.
Visualizando 9 posts - 1 até 9 (de 9 do total)
  • Autor
    Posts
  • #101634
    SuporteDBA
    Participante

      Olá amigos, sou iniciante como DBA gostaria da ajuda de vocês.

      Tenho algumas base dados para implementar uma estratégia de backup lógico, estas variam de bases 9i,10g e 11g. Estou em dúvida quanto ao seguinte:

      Na maioria das bases usamos Linux RHEL 32bits, venho perguntar os mais experientes sobre se é verdade que posso ter problemas com arquivos de DUMP (exp,expdp) ou até mesmo datafiles maiores que 2GB ?? O antigo DBA só criava datafiles de no máximo 2GB e alega que trabalhar com arquivos maiores podemos ter problemas pelo fato de o SO não manipular muito bem.

      Gostaria de saber a experiência de vocês, um abraço.

      #101636
      rman
      Participante

        @SuporteDBA

        Na verdade não é que o SO não manipule, depende do formato da partição e não do SO. Realmente se trabalhar com arquivos enormes como uma dump de 80 gb em um único arquivo coisas simples se torna complexas… até o fato de transportar o arquivo pela rede.

        Meus dumps feitos pelo Data Pump estão fatiados em 4 gb. Se eu precisar, posso até gravar em DVD 😆 . O dump de 80 gb pode ser gravado em 20 DVDs, dependendo a situação pode ser um caminho, espero não precisar fazer isso. 😯

        O antigo exp dizem que costuma dar problema com arquivos enormes.

        #101637
        Victor Armbrust
        Mestre

          Não sei qual a versão do seu RHEL, de qualquer forma verifique o Large File Support (LFS)
          http://people.redhat.com/berrange/notes/largefile.html

          Também não sei qual a versão do seu Banco de Dados, mas pelo SO ser 32bits, verifique também o VLM e o HugePages

          11g

          [url]http://download.oracle.com/docs/cd/E11882_01/server.112/e10839/appi_vlm.htm#CACDCGAH
          [/url]

          abs
          Victor DBA

          #101642
          jspaulonci
          Participante

            Entendo todas as necessidades, mas faço export de bases de 500 700 Gb em um arquivo só, não tenho problemas quanto a isso.

            #101652
            Peterson
            Participante

              Gerar backup pieces em tamanhos de 2, 4 ou 6 GB tb facilita a alocação/realocação deles em áreas de armazenamento. É muito mais fácil encontrar várias áreas com mais de 2GB que uma área com 20G…

              #101659
              SuporteDBA
              Participante

                Obrigado pelas respostas amigos, vou verificar se o SO tem suporte ao Large File Support (LFS). Obrigado pelas dicas para manipulação desses arquivos, ainda tenho uma duvida.

                No caso de tablespaces é recomendado criar datafiles maiores que 2GB ??
                (Ambientes 32bits)

                Abraço,
                Obrigado.

                #101662
                Peterson
                Participante

                  As mesmas recomendações valem para os datafiles, apesar de ser difícil manter datafiles com menos de 2GB… Se seu sistema de arquivos tiver limitações, não importa se datafiles ou backup piece, o problema vale para ambos.

                  Há a opção de usar ASM e acabar com a limitação do sistema de arquivos.

                  #101682
                  SuporteDBA
                  Participante

                    Obrigado pelas respostas pessoal. Um abraço.

                    #101707
                    Rodrigo Almeida
                    Participante

                      Concordo com o Peterson e RMAN,

                      O Oracle pode ter datafiles de até 64TB, com as BIG TABLESPACES, e atualmente pode ser gerenciado pela maioria dos File Systems do mercado e ASM tranquilamente.

                      O maior problema de tudo isso, é justamente os pontos que falha que tu mesmo DBA está criando e complicando diversas outras atividades.

                      Por exemplo, se tenho uma tablespace com um único datafile de 100GB por exemplo, onde reside owners de aplicações, caso eu tenho 1 bloco corrompido que seja necessário restauração, tenho que deixar ela OFFLINE para todo mundo.

                      Se quebro eles em vários outros, meu tempo de restauração cai muito, deste modo, melhor o seu MTTR e RTO na sua política de backup.

                      além disso,

                      Melhora tráfego de rede;
                      Melhora o armazenamento em fitas;
                      Melhora o tempo de backup;
                      Melhora o tempo de restore;
                      Diminui os pontos de fallhas da base;
                      Melhora para bases com Standby ou Data Guard;
                      Pode ser SIM, COMPROVADO, mais performático;
                      Pode espalhar em datafiles em mais discos, e usando mais cabeçotes de disco, mais performance;
                      e assim vai…

                      A regra atualmente é sempre não deixar datafiles muitos grandes, no máximo 10G dependendo do seu hardware, storage e rede.

                      O Exadata mesmo que trabalha com Infiniband, as nossas estratégias são datafiles de no máximo 10G, justamento para não atrapalhar SLA do cliente, disponibilidade, RTO e MTTR.

                      Espero ter ajudado.

                      Abraços,

                    Visualizando 9 posts - 1 até 9 (de 9 do total)
                    • Você deve fazer login para responder a este tópico.