Não estou conseguindo conter certos termos árabes usando o SnowballStemmer. Muitos termos são originados com sucesso, mas alguns termos fazem com que um AttributeError seja gerado. Veja abaixo um exemplo mínimo que falha no termo 'de'.
(anaconda2-4.4.0) richard-balmer-macbook:~ richardbalmer$ pip freeze | grep nltk
nltk==3.2.5
(anaconda2-4.4.0) richard-balmer-macbook:~ richardbalmer$ ipython
Python 2.7.13 |Anaconda custom (x86_64)| (default, Dec 20 2016, 23:05:08)
Type "copyright", "credits" or "license" for more information.
IPython 5.3.0 -- An enhanced Interactive Python.
? -> Introduction and overview of IPython's features.
%quickref -> Quick reference.
help -> Python's own help system.
object? -> Details about 'object', use 'object??' for extra details.
In [1]: from nltk.stem.snowball import SnowballStemmer
In [2]: stemmer = SnowballStemmer('arabic')
In [3]: stemmer.stem(u'تسدد')
Out[3]: u'\u062a\u0633\u062f\u062f'
In [4]: stemmer.stem(u'من')
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-4-ffa733106049> in <module>()
----> 1 stemmer.stem(u'من')
/Users/richardbalmer/.pyenv/versions/anaconda2-4.4.0/lib/python2.7/site-packages/nltk/stem/snowball.pyc in stem(self, word)
762 modified_word = self.__Suffix_Verb_Step2b(modified_word)
763 if not self.suffix_verb_step2b_success:
--> 764 modified_word = self.__Suffix_Verb_Step2a(modified_word)
765 if self.is_noun:
766 modified_word = self.__Suffix_Noun_Step2c2(modified_word)
/Users/richardbalmer/.pyenv/versions/anaconda2-4.4.0/lib/python2.7/site-packages/nltk/stem/snowball.pyc in __Suffix_Verb_Step2a(self, token)
533 break
534
--> 535 if suffix in self.__conjugation_suffix_verb_present and len(token) > 5:
536 token = token[:-2] # present
537 self.suffix_verb_step2a_success = True
AttributeError: 'ArabicStemmer' object has no attribute '_ArabicStemmer__conjugation_suffix_verb_present'
@richbalmer Obrigado por relatar o problema.
@LBenzahia Você poderia ajudar a investigar isso? Desde já, obrigado!
Olá @richbalmer, obrigado por relatar, A primeira palavra 'تسدد' é a melhor raiz possível porque o lematizador árabe Snowball baseado em algoritmo de lematização leve lida com prefixos / sufixos, se você está procurando a raiz de "تسدد", pode usar ISRI (raiz -baseada lematizador / lematização profunda), a segunda palavra 'من' é uma palavra de interrupção, você deve usar o filtro de palavra de interrupção antes de começar a usar Snowball ArabicStemmer. Além disso, este lematizador não trata do caso quando a palavra tem 2 letras.
De qualquer forma, resolvi o problema neste PR # 1856.
Obrigado novamente!
@LBenzahia obrigado por analisar isso tão rapidamente! Estou entendendo:
File "/Users/richardbalmer/src/nltk/nltk/stem/util.py", line 24
arabic_stopwords = ['إذ',
^
SyntaxError: Non-ASCII character '\xd8' in file /Users/richardbalmer/src/nltk/nltk/stem/util.py on line 24, but no encoding declared; see http://python.org/dev/peps/pep-0263/ for details
O que também parece estar fazendo com que os testes falhem no Jenkins (https://nltk.ci.cloudbees.com/job/pull_request_tests/454/TOXENV=py27-jenkins,jdk=jdk8latestOnlineInstall/testReport/nose.failure/Failure/runTest /). Acho que tudo que você precisa fazer é colocar # -*- coding: utf-8 -*-
no topo de stem/util.py
.
Além disso, depois de corrigir isso localmente, recebo um UnicodeWarning:
/Users/richardbalmer/src/nltk/nltk/stem/snowball.py:748: UnicodeWarning: Unicode equal comparison failed to convert both arguments to Unicode - interpreting them as being unequal
if word in arabic_stopwords:
Pode valer a pena transformar essas palavras irrelevantes em strings Unicode.
Fora isso, parece que sua correção funciona bem para mim - obrigado novamente!
ps Uma outra sugestão: testar a inclusão do conjunto é muito mais rápido do que a inclusão da lista, então pode valer a pena transformar essa lista de palavras irrelevantes em um conjunto.
@richbalmer, você está usando o python2.7? ,
Pode valer a pena transformar essas palavras irrelevantes em strings Unicode.
feito para python2.7, teste-o novamente e diga-me, funciona bem para mim. Eu atualizei o PR
Sim, estou usando 2.7. Parece bom
Ainda com o erro:
AttributeError: o objeto 'ArabicStemmer' não tem atributo '_ArabicStemmer__conjugation_suffix_verb_present'
Estou usando python 3
@NouraAls resolvido em PR
Comentários muito úteis
@richbalmer Obrigado por relatar o problema.
@LBenzahia Você poderia ajudar a investigar isso? Desde já, obrigado!