Estou tentando importar cerca de 1350 documentos de uma só vez com um arquivo JSON muito grande. Cada documento tem cerca de 103 atributos. Escusado será dizer que o dump JSON é muito grande. Quando executo a inserção com o json colado, ele trava por cerca de 10 segundos, depois diz que foi bem-sucedido, porém, nenhum documento é realmente inserido. Se eu dividir a pasta JSON grande em pedaços menores (inserindo talvez 100-250 de cada vez), funcionará bem. Parece que o número de documentos/tamanho do texto está limitando o que está acontecendo. Não estou recebendo nenhuma mensagem de erro. Existe um limite rígido?
@kphamilton Se você precisar importar JSON em massa, seria muito melhor usar a ferramenta de linha de comando mongoimport
que acompanha o MongoDB. Isso deve gerar erros de exibição para documentos ou JSON que não podem ser importados.
Exemplo de uso:
mongoimport --db mydb --collection contacts --file contacts.json
A importação de vários documentos via Robomongo é atualmente uma ajuda rápida para inserir alguns documentos em vez de uma ferramenta completa de importação em massa ;-)
se você fornecer um documento snigle, o comando acima está certo, caso contrário, para vários, este comando funciona bem:
mongoimport --jsonArray --db Research --collection fields --file jsonSample.json --jsonArray
Eu também tive que recorrer ao uso de mongoimport
. Meus dados consistiam em uma matriz JSON e meu problema era um argumento de linha de comando --jsonArray
ausente.
Obrigado @MohammadHeydari!
Comentários muito úteis
se você fornecer um documento snigle, o comando acima está certo, caso contrário, para vários, este comando funciona bem:
mongoimport --jsonArray --db Research --collection fields --file jsonSample.json --jsonArray