Olá - obrigado por registrar um problema. Certifique-se das seguintes coisas antes de criar um problema - obrigado! 🤓 Desde 15 de novembro tratamos de todas as solicitações, exceto bugs reais, em nosso fórum da comunidade. Explicação completa: https://community.zammad.org/t/major-change-regarding-github-issues-community-board/21 Publique: - Solicitações de recursos - Perguntas de desenvolvimento - Perguntas técnicas no quadro -> https: / /community.zammad.org! Se você acha que encontrou um bug, continue: - Pesquise os problemas existentes e o CHANGELOG.md para o seu problema - já pode haver uma solução - Certifique-se de usar a versão mais recente do Zammad se possível - Adicione o `log / produção. arquivo de log do seu sistema. Atenção: Certifique-se de que não contém dados confidenciais! - Escreva o problema em inglês - Não remova o modelo - caso contrário, fecharemos o problema sem mais comentários - Faça perguntas sobre a configuração e o uso do Zammad em nossa lista de discussão. Veja: https://zammad.org/participate Nota: Sempre fazemos nosso melhor. Infelizmente, às vezes há muitas solicitações e não podemos lidar com tudo de uma vez. Se quiser priorizar / escalar seu problema, você pode fazer isso por meio de um contrato de suporte (consulte https://zammad.com/pricing#selfhosted). * O bloco de texto superior será removido automaticamente quando você enviar seu problema *
/var/log/zammad/production.log parece bom.
Sempre que clico em uma das funções em "Gerenciamento de usuários", as solicitações são processadas sem erro (retorno 200).
Payload size: 0M
E, [2019-02-05T17:44:59.430366 #5417-47218874103620] ERROR -- :
2019-02-05T17:44:59+0100: [Worker(host:zammad.local pid:5417)] Job
BackgroundJobSearchIndex (id=16) FAILED (3 prior attempts) with RuntimeError: Unable
to process POST request to elasticsearch URL 'http://localhost:9200/zammad_production
/User/3?pipeline=zammad895142058248'. Check the response and payload for detailed
information:
Response:
#<UserAgent::Result:0x00007f5da9857a38 @success=false, @body="{\"error
\":{\"root_cause\":[{\"type\":\"illegal_argument_exception\",\"reason\":\"pipeline with id
[zammad895142058248] does not exist\"}],\"type\":\"illegal_argument_exception
\",\"reason\":\"pipeline with id [zammad895142058248] does not exist\"},\"status\":400}",
@data=nil, @code="400", @content_type=nil, @error="Client Error:
#<Net::HTTPBadRequest 400 Bad Request readbody=true>!">
O problema (ou equivalente), parece ser comum:
https://community.zammad.org/t/no-users-on-users-management/1108/2
Etapas para reproduzir o problema com precisão (em uma máquina CentOS 7 KVM):
yum -y update
yum -y install epel-release wget
wget -O /etc/yum.repos.d/zammad.repo https://dl.packager.io/srv/zammad/zammad/stable/installer/el/7.repo
rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
echo "[elasticsearch-5.x]
name=Elasticsearch repository for 5.x packages
baseurl=https://artifacts.elastic.co/packages/5.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md"| tee /etc/yum.repos.d/elasticsearch-5.x.repo
yum install -y java-1.8.0-openjdk-devel
yum install -y elasticsearch
echo "JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:bin/java::")" | sudo tee -a /etc/profile
source /etc/profile
## I am behind a corporate proxy, so I need to preceed the elasticsearch command with the java environment variables
ES_JAVA_OPTS="-Dhttps.proxyHost=MY_HTTP_PROXY.COM -Dhttps.proxyPort=8080" /usr/share/elasticsearch/bin/elasticsearch-plugin install mapper-attachments --batch
systemctl restart elasticsearch
systemctl enable elasticsearch
# SELinux / Firewall
setsebool httpd_can_network_connect on -P
firewall-cmd --zone=public --add-service=http --permanent
firewall-cmd --zone=public --add-service=https --permanent
firewall-cmd --reload
# For some reason the default nginx config overlaps with conf.d/zammad.conf
sed -i '/^ server {/,+19 s/^/#/' /etc/nginx/nginx.conf
systemctl restart nginx
zammad run rails r "Setting.set('es_url', 'http://localhost:9200')"
zammad run rake searchindex:rebuild
zammad run rails r "Setting.set('es_user', 'elasticsearch')"
zammad run rails r "Setting.set('es_password', 'zammad')"
Em seguida, acesse a interface web, crie um novo ambiente, faça o login e pronto: Sem usuários no "Gerenciamento de usuários".
Sim, tenho certeza que isso é um bug e nenhuma solicitação de recurso ou uma questão geral.
Desculpe, este não é um bug, um problema na configuração do seu sistema.
Consulte nosso conselho da comunidade (https://community.zammad.org/) para obter assistência técnica.
As mensagens de erro postadas indicam que o Zammad não pode alcançar a instalação do elasticsearch.
Pessoalmente, não acho que você precise contornar nada ao ficar em sua própria máquina (também conhecido como "localhost").
Fechando agora.
Uau! Isso foi incrivelmente rápido! Nem tive tempo de editar a sintaxe do post: P
Bem ... por uma questão de documentação, o problema foi resolvido por:
/usr/share/elasticsearch/bin/elasticsearch-plugin remove mapper-attachments
/usr/share/elasticsearch/bin/elasticsearch-plugin install ingest-attachment --batch
systemctl restart elasticsearch
zammad run rake searchindex:rebuild
O plugin "mapper-attachment" foi removido de um servidor de produção por algum motivo (após a última atualização).
Depois disso, basta executar:
zammad run rake searchindex:rebuild`
E certifique-se de que termina sem erros!
Agora os nomes estão de volta em "Gerenciamento de Usuários", em todos os sistemas de teste e produção.
Obrigado @MrGeneration !
Que bom que afinal você conseguiu encontrar!
Ser rápido no fechamento é minha especialidade;)
Comentários muito úteis
Uau! Isso foi incrivelmente rápido! Nem tive tempo de editar a sintaxe do post: P
Bem ... por uma questão de documentação, o problema foi resolvido por:
O plugin "mapper-attachment" foi removido de um servidor de produção por algum motivo (após a última atualização).
Depois disso, basta executar:
E certifique-se de que termina sem erros!
Agora os nomes estão de volta em "Gerenciamento de Usuários", em todos os sistemas de teste e produção.
Obrigado @MrGeneration !