SnowballStemmerを使用して特定のアラビア語の用語をステミングできません。 多くの用語は正常にステミングされますが、一部の用語ではAttributeErrorが発生します。 「from」という用語で失敗する最小限の例については、以下を参照してください。
(anaconda2-4.4.0) richard-balmer-macbook:~ richardbalmer$ pip freeze | grep nltk
nltk==3.2.5
(anaconda2-4.4.0) richard-balmer-macbook:~ richardbalmer$ ipython
Python 2.7.13 |Anaconda custom (x86_64)| (default, Dec 20 2016, 23:05:08)
Type "copyright", "credits" or "license" for more information.
IPython 5.3.0 -- An enhanced Interactive Python.
? -> Introduction and overview of IPython's features.
%quickref -> Quick reference.
help -> Python's own help system.
object? -> Details about 'object', use 'object??' for extra details.
In [1]: from nltk.stem.snowball import SnowballStemmer
In [2]: stemmer = SnowballStemmer('arabic')
In [3]: stemmer.stem(u'تسدد')
Out[3]: u'\u062a\u0633\u062f\u062f'
In [4]: stemmer.stem(u'من')
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-4-ffa733106049> in <module>()
----> 1 stemmer.stem(u'من')
/Users/richardbalmer/.pyenv/versions/anaconda2-4.4.0/lib/python2.7/site-packages/nltk/stem/snowball.pyc in stem(self, word)
762 modified_word = self.__Suffix_Verb_Step2b(modified_word)
763 if not self.suffix_verb_step2b_success:
--> 764 modified_word = self.__Suffix_Verb_Step2a(modified_word)
765 if self.is_noun:
766 modified_word = self.__Suffix_Noun_Step2c2(modified_word)
/Users/richardbalmer/.pyenv/versions/anaconda2-4.4.0/lib/python2.7/site-packages/nltk/stem/snowball.pyc in __Suffix_Verb_Step2a(self, token)
533 break
534
--> 535 if suffix in self.__conjugation_suffix_verb_present and len(token) > 5:
536 token = token[:-2] # present
537 self.suffix_verb_step2a_success = True
AttributeError: 'ArabicStemmer' object has no attribute '_ArabicStemmer__conjugation_suffix_verb_present'
@richbalmer問題を報告していただきありがとうございます。
@LBenzahiaこれを調べるのを手伝って
こんにちは@richbalmer報告して
とにかく、私はこのPR#1856の問題を修正しました。
ありがとうございました !
@LBenzahiaこれをとても早く調べてくれてありがとう! 私は得ています:
File "/Users/richardbalmer/src/nltk/nltk/stem/util.py", line 24
arabic_stopwords = ['إذ',
^
SyntaxError: Non-ASCII character '\xd8' in file /Users/richardbalmer/src/nltk/nltk/stem/util.py on line 24, but no encoding declared; see http://python.org/dev/peps/pep-0263/ for details
これもJenkinsでテストが失敗する原因になっているようです(https://nltk.ci.cloudbees.com/job/pull_request_tests/454/TOXENV=py27-jenkins,jdk=jdk8latestOnlineInstall/testReport/nose.failure/Failure/runTest /)。 stem/util.py
一番上に# -*- coding: utf-8 -*-
を置くだけだと思います。
また、それをローカルで修正した後、UnicodeWarningが表示されます。
/Users/richardbalmer/src/nltk/nltk/stem/snowball.py:748: UnicodeWarning: Unicode equal comparison failed to convert both arguments to Unicode - interpreting them as being unequal
if word in arabic_stopwords:
それらのストップワードをUnicode文字列にすることは価値があるかもしれません。
それ以外は、あなたの修正が私にとってうまく機能しているように見えます-もう一度ありがとう!
psもう1つの提案:セットの包含のテストはリストの包含よりもはるかに高速であるため、代わりにそのストップワードリストをセットにする価値があるかもしれません。
@richbalmerはpython2.7を使用していますか? 、
それらのストップワードをUnicode文字列にすることは価値があるかもしれません。
python2.7で完了しました。もう一度テストして、教えてください。問題なく動作します。 PRを更新しました
はい、2.7を使用しています。 よさそうだ
まだエラーがあります:
AttributeError: 'ArabicStemmer'オブジェクトに属性がありません '_ArabicStemmer__conjugation_suffix_verb_present'
私はPython3を使用しています
@NouraAlsがPRで解決
最も参考になるコメント
@richbalmer問題を報告していただきありがとうございます。
@LBenzahiaこれを調べるのを手伝って