Oops! It appears that you have disabled your Javascript. In order for you to see this page as it is meant to appear, we ask that you please re-enable your Javascript!
+55 (11) 4506-3239
academy@glsolutions.com.br

16 ago 2010

EJPJO0091E: Failed to retrieve content sources from collection

/
Postado por
/
Comments2

Nas configurações de search remoto em ambientes WebSphere Portal, é mandatório que exista um diretório na rede compartilhado onde ambos os nodes dos portais tenham acesso.
Por exemplo, o diretório /storage deve ter acesso de escrita e alteração para os nodes WebSphere_Portal_node1 e WebSphere_Portal_node2. É dentro desse diretório que é criado o índice de search quando se inicia um crawler. Por se tratar de um ambiente em cluster, me deparei com um problema no momento em que o crawler iniciava. No portal, chava a gerar 4 arquivos e a seguinte mensagem de erro era exibida: “EJPJO0091E: Failed to retrieve content sources from collection /storage“. E logo abaixo a mensagem “Error opening socket:java.net.SocketException: Too many open files“. A principal característica do problema esta na mensagem “Too many open files“.

É um problema característico em ambientes Unix.
Quando o crawler é gerado ele cria no diretório /storage diversas pastas e uma infinidade de sub-pastas. Para que o sistema operacional aceite numeros altos de sub-pastas, é necessário alterar o valor de ulimit -n.

Para verificar quanto de ulimit -n está configurado para seu servidor, digite: ulimit -a.

Este comando exibe todas as configurações disponíveis para o ulimit. Mas no nosso caso, o parâmetro mais importante é o padrão open file (-n). Veja que o valor padrão é 1024. Esse é um valor muito baixo e por esse motivo que ao iniciar o crawler ao chegar no número máximo de sub-diretórios peritidos, o erro Too many open files é exibido.

Alterando os valores ulimit.

  • Para alterar os valores, faça login como root nos tres servidores. Servidor WAS de search, node1 e node2 dos servidores de portal.
  • Edite o arquivo: /etc/security/limits.conf.
  • Insira os valores abaixo.
    • *      soft      nofile     1024000
    • *      hard      nofile     1024000
  • O valor * significa que será configurado para todos os usuários do servidor.
  • Salve as alterações.
  • Faça logoff e login novamente para atualizar as configurações.
  • Rode novamente o crawler.

2 Responses

  1. Olá Gabriel

    Veja minha materia de como obter uma certificação: http://blogfoc.blogspot.com/2009/11/dicas-para-obter-uma-certificacao.html.
    Os locais que existem certificações IBM são Certfx e Testking. De qualque forma, eu aconselho você a estudar materias oficiais da IBM no site, que lhe dará todo o conhecimento necessário para passar na prova. http://publib.boulder.ibm.com/infocenter/lqkrdom/v8/index.jsp.
    Veja também como se preparar para a prova acessando:
    http://www-03.ibm.com/certify/mastery_tests/eduM47.shtml

    Boa sorte

    Fernando

Deixe um comentário