- Este tópico contém 8 respostas, 6 vozes e foi atualizado pela última vez 14 anos, 3 meses atrás por
Rodrigo Almeida.
-
AutorPosts
-
15 de novembro de 2011 às 12:20 am #101634
SuporteDBA
ParticipanteOlá amigos, sou iniciante como DBA gostaria da ajuda de vocês.
Tenho algumas base dados para implementar uma estratégia de backup lógico, estas variam de bases 9i,10g e 11g. Estou em dúvida quanto ao seguinte:
Na maioria das bases usamos Linux RHEL 32bits, venho perguntar os mais experientes sobre se é verdade que posso ter problemas com arquivos de DUMP (exp,expdp) ou até mesmo datafiles maiores que 2GB ?? O antigo DBA só criava datafiles de no máximo 2GB e alega que trabalhar com arquivos maiores podemos ter problemas pelo fato de o SO não manipular muito bem.
Gostaria de saber a experiência de vocês, um abraço.
15 de novembro de 2011 às 1:02 am #101636rman
Participante@SuporteDBA
Na verdade não é que o SO não manipule, depende do formato da partição e não do SO. Realmente se trabalhar com arquivos enormes como uma dump de 80 gb em um único arquivo coisas simples se torna complexas… até o fato de transportar o arquivo pela rede.
Meus dumps feitos pelo Data Pump estão fatiados em 4 gb. Se eu precisar, posso até gravar em DVD 😆 . O dump de 80 gb pode ser gravado em 20 DVDs, dependendo a situação pode ser um caminho, espero não precisar fazer isso. 😯
O antigo exp dizem que costuma dar problema com arquivos enormes.
15 de novembro de 2011 às 1:15 am #101637Victor Armbrust
MestreNão sei qual a versão do seu RHEL, de qualquer forma verifique o Large File Support (LFS)
http://people.redhat.com/berrange/notes/largefile.htmlTambém não sei qual a versão do seu Banco de Dados, mas pelo SO ser 32bits, verifique também o VLM e o HugePages
11g
[url]http://download.oracle.com/docs/cd/E11882_01/server.112/e10839/appi_vlm.htm#CACDCGAH
[/url]abs
Victor DBA16 de novembro de 2011 às 1:12 pm #101642jspaulonci
ParticipanteEntendo todas as necessidades, mas faço export de bases de 500 700 Gb em um arquivo só, não tenho problemas quanto a isso.
16 de novembro de 2011 às 5:19 pm #101652Peterson
ParticipanteGerar backup pieces em tamanhos de 2, 4 ou 6 GB tb facilita a alocação/realocação deles em áreas de armazenamento. É muito mais fácil encontrar várias áreas com mais de 2GB que uma área com 20G…
16 de novembro de 2011 às 6:14 pm #101659SuporteDBA
ParticipanteObrigado pelas respostas amigos, vou verificar se o SO tem suporte ao Large File Support (LFS). Obrigado pelas dicas para manipulação desses arquivos, ainda tenho uma duvida.
No caso de tablespaces é recomendado criar datafiles maiores que 2GB ??
(Ambientes 32bits)Abraço,
Obrigado.16 de novembro de 2011 às 7:49 pm #101662Peterson
ParticipanteAs mesmas recomendações valem para os datafiles, apesar de ser difícil manter datafiles com menos de 2GB… Se seu sistema de arquivos tiver limitações, não importa se datafiles ou backup piece, o problema vale para ambos.
Há a opção de usar ASM e acabar com a limitação do sistema de arquivos.
17 de novembro de 2011 às 6:11 pm #101682SuporteDBA
ParticipanteObrigado pelas respostas pessoal. Um abraço.
20 de novembro de 2011 às 2:42 am #101707Rodrigo Almeida
ParticipanteConcordo com o Peterson e RMAN,
O Oracle pode ter datafiles de até 64TB, com as BIG TABLESPACES, e atualmente pode ser gerenciado pela maioria dos File Systems do mercado e ASM tranquilamente.
O maior problema de tudo isso, é justamente os pontos que falha que tu mesmo DBA está criando e complicando diversas outras atividades.
Por exemplo, se tenho uma tablespace com um único datafile de 100GB por exemplo, onde reside owners de aplicações, caso eu tenho 1 bloco corrompido que seja necessário restauração, tenho que deixar ela OFFLINE para todo mundo.
Se quebro eles em vários outros, meu tempo de restauração cai muito, deste modo, melhor o seu MTTR e RTO na sua política de backup.
além disso,
Melhora tráfego de rede;
Melhora o armazenamento em fitas;
Melhora o tempo de backup;
Melhora o tempo de restore;
Diminui os pontos de fallhas da base;
Melhora para bases com Standby ou Data Guard;
Pode ser SIM, COMPROVADO, mais performático;
Pode espalhar em datafiles em mais discos, e usando mais cabeçotes de disco, mais performance;
e assim vai…A regra atualmente é sempre não deixar datafiles muitos grandes, no máximo 10G dependendo do seu hardware, storage e rede.
O Exadata mesmo que trabalha com Infiniband, as nossas estratégias são datafiles de no máximo 10G, justamento para não atrapalhar SLA do cliente, disponibilidade, RTO e MTTR.
Espero ter ajudado.
Abraços,
-
AutorPosts
- Você deve fazer login para responder a este tópico.