Nltk: CoreNLPNERTagger melempar HTTPError: 500 Server Error: Internal Server Error for url: ......

Dibuat pada 25 Apr 2018  ·  22Komentar  ·  Sumber: nltk/nltk

Halo,

Saya menggunakan nltk v3.2.5 dan mencoba menggunakan CoreNLPNERTagger dengan Stanford CoreNLP v3.9.1 (versi terbaru) dan v3.8.0. Namun, keduanya melempar HTTPError: 500 Server Error.

Kodenya adalah
"""
dari nltk.tag.stanford impor CoreNLPPOSTagger, CoreNLPNERTagger
CoreNLPPOSTagger(url='http://localhost:9000').tag('Berapa kecepatan udara burung layang-layang tanpa muatan ?'.split())
CoreNLPNERTagger(url='http://localhost:9000').tag('Rami Eid belajar di Stony Brook University di NY.'.split())
"""

CoreNLPPOSTagger dapat memberikan hasil yang diharapkan, jadi saya kira saya mengatur server dengan benar. Pesan kesalahan untuk CoreNLPNERTagger adalah

"""

HTTPError Traceback (panggilan terakhir terakhir)
di dalam()
----> 1 CoreNLPNERTagger(url='http://localhost:9000').tag('Rami Eid belajar di Stony Brook University di NY.'.split())

~\AppData\Local\Continuum\anaconda3\lib\site-packages\nltk\tag\stanford.py dalam tag (diri, kalimat)
229
230 tag def(diri, kalimat):
--> 231 mengembalikan self.tag_sents([kalimat])[0]
232
233 def raw_tag_sents(diri sendiri, kalimat):

~\AppData\Local\Continuum\anaconda3\lib\site-packages\nltk\tag\stanford.py dalam tag_sents(sendiri, kalimat)
225 # Mengonversi daftar(daftar(str)) -> daftar(str)
226 kalimat = (' '.join(words) untuk kata-kata dalam kalimat)
-> 227 daftar kembali(self.raw_tag_sents(kalimat))
228
229

~\AppData\Local\Continuum\anaconda3\lib\site-packages\nltk\tag\stanford.py di raw_tag_sents(sendiri, kalimat)
242 default_properties['annotators'] += self.tagtype
243 untuk kalimat dalam kalimat:
--> 244 tagged_data = self.api_call(kalimat, properties=default_properties)
245 menegaskan len(tagged_data['kalimat']) == 1
246 # Penanda hanya perlu mengembalikan 1 kalimat terbaik.

~\AppData\Local\Continuum\anaconda3\lib\site-packages\nltk\parse\corenlp.py di api_call(self, data, properties)
249)
250
--> 251 respon.raise_for_status()
252
253 mengembalikan respon.json()

~\AppData\Local\Continuum\anaconda3\lib\site-packages\requests\models.py di raise_for_status(self)
933
934 jika http_error_msg:
-> 935 meningkatkan HTTPError(http_error_msg, response=self)
936
937 def tutup (sendiri):

HTTPError: 500 Server Error: Internal Server Error untuk url: http://localhost :9000/?properties=%7B%22outputFormat%22%3A+%22json%22%2C+%22annotators%22%3A+%22tokenize%2Cssplit%2Cner% 22%2C+%22ssplit.isOneSentence%22%3A+%22true%22%7D
"""
Adakah yang bisa menunjukkan apa yang terjadi di sini? Terima kasih!

resolved stanford api

Semua 22 komentar

Hai,

apakah Anda melihat kesalahan yang berasal dari log CoreNLP?

Ya.

CoreNLPPOSTagger bekerja seperti yang diharapkan tanpa kesalahan. Pesan kesalahan ketika saya menjalankan CoreNLPNERTagger adalah
"""
[pool-1-thread-1] INFO CoreNLP - [/0:0:0:0:0:0:0:1:52437] Panggilan API dengan annotator tokenize,ssplit,pos,lemma,ner
Rami Eid sedang belajar di Stony Brook University di NY.
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Menambahkan tokenize annotator
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.TokenizerAnnotator - Tidak ada jenis tokenizer yang disediakan. Default ke PTBTokenizer.
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Menambahkan ssplit annotator
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Menambahkan pos annotator
[pool-1-thread-1] INFO edu.stanford.nlp.tagger.maxent.MaxentTagger - Memuat penanda POS dari edu/stanford/nlp/models/pos-tagger/english-left3words/english-left3words-distsim.tagger . .. selesai [0,7 detik].
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Menambahkan lemma annotator
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Menambahkan ner annotator
[pool-1-thread-1] INFO edu.stanford.nlp.ie.AbstractSequenceClassifier - Memuat pengklasifikasi dari edu/stanford/nlp/models/ner/english.all.3class.distsim.crf.ser.gz ... selesai [1.1 detik].
[pool-1-thread-1] INFO edu.stanford.nlp.ie.AbstractSequenceClassifier - Memuat pengklasifikasi dari edu/stanford/nlp/models/ner/english.muc.7class.distsim.crf.ser.gz ... selesai [0,5 detik].
[pool-1-thread-1] INFO edu.stanford.nlp.ie.AbstractSequenceClassifier - Memuat pengklasifikasi dari edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... selesai [0.6 detik].
[pool-1-thread-1] INFO edu.stanford.nlp.time.JollyDayHolidays - Inisialisasi JollyDayHoliday untuk SUTime dari classpath edu/stanford/nlp/models/sutime/jollyday/Holidays_sutime.xml sebagai sutime.binder.1.
edu.stanford.nlp.util.ReflectionLoading$ReflectionLoadingException: Kesalahan saat membuat edu.stanford.nlp.time.TimeExpressionExtractorImpl
di edu.stanford.nlp.util.ReflectionLoading.loadByReflection(ReflectionLoading.java:38)
di edu.stanford.nlp.time.TimeExpressionExtractorFactory.create(TimeExpressionExtractorFactory.java:60)
di edu.stanford.nlp.time.TimeExpressionExtractorFactory.createExtractor(TimeExpressionExtractorFactory.java:43)
di edu.stanford.nlp.ie.regexp.NumberSequenceClassifier.(NumberSequenceClassifier.java:86)
di edu.stanford.nlp.ie.NERClassifierCombiner.(NERClassifierCombiner.java:135)
di edu.stanford.nlp.pipeline.NERCombinerAnnotator.(NERCombinerAnnotator.java:131)
di edu.stanford.nlp.pipeline.AnnotatorImplementations.ner(AnnotatorImplementations.java:68)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.lambda$getNamedAnnotators$44(StanfordCoreNLP.java:546)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.lambda$null$69(StanfordCoreNLP.java:625)
di edu.stanford.nlp.util.Lazy$3.compute(Lazy.java:126)
di edu.stanford.nlp.util.Lazy.get(Lazy.java:31)
di edu.stanford.nlp.pipeline.AnnotatorPool.get(AnnotatorPool.java: 149)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.construct(StanfordCoreNLP.java:495)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.(StanfordCoreNLP.java:201)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.(StanfordCoreNLP.java: 194)
di edu.stanford.nlp.pipeline.StanfordCoreNLP.(StanfordCoreNLP.java:181)
di edu.stanford.nlp.pipeline.StanfordCoreNLPServer.mkStanfordCoreNLP(StanfordCoreNLPServer.java:366)
di edu.stanford.nlp.pipeline.StanfordCoreNLPServer.access$800(StanfordCoreNLPServer.java:50)
di edu.stanford.nlp.pipeline.StanfordCoreNLPServer$CoreNLPHandler.handle(StanfordCoreNLPServer.java:851)
di jdk.httpserver/com.sun.net.httpserver.Filter$Chain.doFilter(Sumber Tidak Dikenal)
di jdk.httpserver/sun.net.httpserver.AuthFilter.doFilter (Sumber Tidak Dikenal)
di jdk.httpserver/com.sun.net.httpserver.Filter$Chain.doFilter(Sumber Tidak Dikenal)
di jdk.httpserver/sun.net.httpserver.ServerImpl$Exchange$LinkHandler.handle(Sumber Tidak Dikenal)
di jdk.httpserver/com.sun.net.httpserver.Filter$Chain.doFilter(Sumber Tidak Dikenal)
di jdk.httpserver/sun.net.httpserver.ServerImpl$Exchange.run (Sumber Tidak Dikenal)
di java.base/java.util.concurrent.ThreadPoolExecutor.runWorker (Sumber Tidak Dikenal)
di java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run (Sumber Tidak Dikenal)
di java.base/java.lang.Thread.run (Sumber Tidak Dikenal)
Disebabkan oleh: edu.stanford.nlp.util.MetaClass$ClassCreationException: MetaClass tidak dapat membuat edu.stanford.nlp.time.TimeExpressionExtractorImpl(java.lang.String,java.util.Properties) publik dengan args [sutime, {} ]
di edu.stanford.nlp.util.MetaClass$ClassFactory.createInstance(MetaClass.java:237)
di edu.stanford.nlp.util.MetaClass.createInstance(MetaClass.java:382)
di edu.stanford.nlp.util.ReflectionLoading.loadByReflection(ReflectionLoading.java:36)
... 27 lainnya
Disebabkan oleh: java.lang.reflect.InvocationTargetException
di java.base/jdk.internal.reflect.NativeConstructorAccessorImpl.newInstance0(Metode Asli)
di java.base/jdk.internal.reflect.NativeConstructorAccessorImpl.newInstance (Sumber Tidak Dikenal)
di java.base/jdk.internal.reflect.DelegatingConstructorAccessorImpl.newInstance (Sumber Tidak Dikenal)
di java.base/java.lang.reflect.Constructor.newInstance (Sumber Tidak Dikenal)
di edu.stanford.nlp.util.MetaClass$ClassFactory.createInstance(MetaClass.java:233)
... 29 lainnya
Disebabkan oleh: java.lang.NoClassDefFoundError: javax/xml/bind/JAXBException
di de.jollyday.util.CalendarUtil.(CalendarUtil.java:42)
di de.jollyday.HolidayManager.(HolidayManager.java:66)
di de.jollyday.impl.DefaultHolidayManager.(DefaultHolidayManager.java:46)
di edu.stanford.nlp.time.JollyDayHolidays$MyXMLManager.(JollyDayHolidays.java: 148)
di java.base/jdk.internal.reflect.NativeConstructorAccessorImpl.newInstance0(Metode Asli)
di java.base/jdk.internal.reflect.NativeConstructorAccessorImpl.newInstance (Sumber Tidak Dikenal)
di java.base/jdk.internal.reflect.DelegatingConstructorAccessorImpl.newInstance (Sumber Tidak Dikenal)
di java.base/java.lang.reflect.Constructor.newInstance (Sumber Tidak Dikenal)
di java.base/java.lang.Class.newInstance (Sumber Tidak Dikenal)
di de.jollyday.caching.HolidayManagerValueHandler.instantiateManagerImpl(HolidayManagerValueHandler.java:60)
di de.jollyday.caching.HolidayManagerValueHandler.createValue(HolidayManagerValueHandler.java:41)
di de.jollyday.caching.HolidayManagerValueHandler.createValue(HolidayManagerValueHandler.java:13)
di de.jollyday.util.Cache.get(Cache.java:51)
di de.jollyday.HolidayManager.createManager(HolidayManager.java:168)
di de.jollyday.HolidayManager.getInstance(HolidayManager.java:148)
di edu.stanford.nlp.time.JollyDayHolidays.init(JollyDayHolidays.java:57)
di edu.stanford.nlp.time.Options.(Options.java:119)
di edu.stanford.nlp.time.TimeExpressionExtractorImpl.init(TimeExpressionExtractorImpl.java:44)
di edu.stanford.nlp.time.TimeExpressionExtractorImpl.(TimeExpressionExtractorImpl.java:39)
... 34 lainnya
Disebabkan oleh: java.lang.ClassNotFoundException: javax.xml.bind.JAXBException
di java.base/jdk.internal.loader.BuiltinClassLoader.loadClass(Sumber Tidak Dikenal)
di java.base/jdk.internal.loader.ClassLoaders$AppClassLoader.loadClass(Sumber Tidak Dikenal)
di java.base/java.lang.ClassLoader.loadClass(Sumber Tidak Dikenal)
... 53 lainnya
"""

Terima kasih.

edu.stanford.nlp.util.ReflectionLoading$ReflectionLoadingException:
  Error creating edu.stanford.nlp.time.TimeExpressionExtractorImpl

Ini terlihat seperti kesalahan kunci di sisi CoreNLP.

Apakah Anda mencoba menandai kalimat tersebut melalui antarmuka web di http://localhost :9000

Hi Dmitrijs,

Terima kasih telah menunjukkan ini. Saya kira itu di sisi CoreNLP. Saya mencoba beberapa teks dengan nama orang dan tidak ada yang berfungsi di demo langsung pada saat itu. Tapi saya ingat situs demo bekerja minggu lalu.

Ke depan, jika NLTK hanya menyediakan pembungkus untuk CoreNLP maka pengguna harus khawatir tentang server. Menurut Anda, apakah sebaiknya kami mempertahankan StanfordNERTagger atau yang serupa di versi baru? Terima kasih.

Sebenarnya, kita harus menghentikan API Stanford di NLTK dan hanya membungkus https://github.com/stanfordnlp/python-stanford-corenlp

Tapi itu akan membutuhkan beberapa pekerjaan untuk membersihkan, membungkus, menggabungkan API dengan objek dan pengujian NLTK. Ada yang mau tantangan?

@hexingren Silakan coba yang berikut ini dengan NLTK v3.3.

Harap gunakan antarmuka CoreNLPParser .

Pertama perbarui NLTK Anda:

pip3 install -U nltk

Kemudian masih di terminal:

wget http://nlp.stanford.edu/software/stanford-corenlp-full-2018-02-27.zip
unzip stanford-corenlp-full-2018-02-27.zip
java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer -preload tokenize,ssplit,pos,lemma,ner,parse,depparse -status_port 9000 -port 9000 -timeout 15000 &

python3

Akhirnya, mulai Python:

>>> from nltk.parse import CoreNLPParser
>>> parser = CoreNLPParser(url='http://localhost:9000')
>>> list(parser.parse(['house', ')', 'is', 'in', 'York', 'Avenue']))
[Tree('ROOT', [Tree('S', [Tree('NP', [Tree('NN', ['house']), Tree('-RRB-', ['-RRB-'])]), Tree('VP', [Tree('VBZ', ['is']), Tree('PP', [Tree('IN', ['in']), Tree('NP', [Tree('NNP', ['York']), Tree('NNP', ['Avenue'])])])])])])]

>>> tagger = CoreNLPParser(url='http://localhost:9000', tagtype='ner')
>>> tokens = 'Rami Eid is studying at Stony Brook University in NY'.split()
>>> tagger.tag(tokens)
[('Rami', 'PERSON'), ('Eid', 'PERSON'), ('is', 'O'), ('studying', 'O'), ('at', 'O'), ('Stony', 'ORGANIZATION'), ('Brook', 'ORGANIZATION'), ('University', 'ORGANIZATION'), ('in', 'O'), ('NY', 'STATE_OR_PROVINCE')]

Apakah Anda masih mendapatkan kesalahan dengan hal di atas?

Menutup masalah sebagai diselesaikan untuk saat ini =)
Silakan buka jika ada masalah lebih lanjut.

Ada beberapa kesalahan serupa yang terjadi

@Bisht9887 apakah Anda dapat membagikan kumpulan data dan kami akan menguji apa yang terjadi? Jika tidak, dapatkah Anda memposting stacktrace lengkap dari kesalahan serta output pada konsol untuk server Stanford CoreNLP?


HTTPError Traceback (panggilan terakhir terakhir)
di dalam()
22 cetak (m)
23
---> 24 nama_extracter()

dalam nama_extracter()
18 nama_detail=cocok[1]
19 token = name_details.split()
---> 20 hasil=tagger.tag(token)
21 untuk m dalam hasil:
22 cetak (m)

~\Anaconda3\lib\site-packages\nltk\parse\corenlp.py dalam tag (diri, kalimat)
380 ('tanpa muatan', 'JJ'), ('menelan', 'VB'), ('?', '.')]
381 """
--> 382 mengembalikan self.tag_sents([kalimat])[0]
383
384 def raw_tag_sents(sendiri, kalimat):

~\Anaconda3\lib\site-packages\nltk\parse\corenlp.py di tag_sents(self, kalimat)
359 # Mengonversi daftar(daftar(str)) -> daftar(str)
360 kalimat = (' '.join(words) untuk kata-kata dalam kalimat)
--> 361 mengembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
362
363 tag def(diri, kalimat):

~\Anaconda3\lib\site-packages\nltk\parse\corenlp.py di(.0)
359 # Mengonversi daftar(daftar(str)) -> daftar(str)
360 kalimat = (' '.join(words) untuk kata-kata dalam kalimat)
--> 361 mengembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
362
363 tag def(diri, kalimat):

~\Anaconda3\lib\site-packages\nltk\parse\corenlp.py di raw_tag_sents(sendiri, kalimat)
399 default_properties['annotators'] += self.tagtype
400 untuk kalimat dalam kalimat:
--> 401 tagged_data = self.api_call(kalimat, properties=default_properties)
402 menghasilkan [[(token['word'], token[self.tagtype]) untuk token dalam tagged_sentence['tokens']]
403 untuk tagged_sentence di tagged_data['sentences']]

~\Anaconda3\lib\site-packages\nltk\parse\corenlp.py di api_call(self, data, properties)
255)
256
--> 257 response.raise_for_status()
258
259 mengembalikan respons.json()

~\Anaconda3\lib\site-packages\requests\models.py di raise_for_status(self)
933
934 jika http_error_msg:
-> 935 meningkatkan HTTPError(http_error_msg, response=self)
936
937 def tutup (sendiri):

HTTPError: 500 Server Error: Internal Server Error untuk url: http://localhost :9000/?properties=%7B%22outputFormat%22%3A+%22json%22%2C+%22annotators%22%3A+%22tokenize%2Cssplit%2Cner% 22%2C+%22ssplit.isOneSentence%22%3A+%22true%22%7D

Datanya agak seperti ini. Jadi saya memiliki 400 file teks yang berisi data yang mirip dengan yang ditunjukkan di bawah ini. Saya mem-parsing setiap file teks dan setiap baris dan saya meneruskan teks setelah 'nama pasien:' ke NER.

nama pasien: Johny, Rick Tampil: Jatuh tempo: 21Mar2018; Terakhir Diperbarui Oleh: Morgan;
nama pasien: Wes Conte.
nama pasien: Comfort, John;
nama pasien: Oswald, Andy Tampil: Jatuh tempo: 12Mar2014; Terakhir Diperbarui Oleh: Russell, White;
nama pasien: Douglass, David;Dilakukan: Jatuh Tempo: 23Mei2015; Terakhir Diperbarui Oleh: Potter, Alisa;
nama pasien: Hall, Ariana
nama pasien: Beaver, Jayden
nama pasien: Oswald, Scott;
nama pasien: Green, Robert;
nama pasien: Oswald, Scott;
nama pasien: Hall, Rob
nama pasien: Brain Burleth, 10 Nov 2013 6:55 CST
nama pasien: Grace Johnson, 11 Mei 2011 20:54 CST

@hexingren apakah Anda tahu baris mana yang menyebabkan kesalahan? Sebelum tagger.tag(tokens) , tambahkan baris print(tokens) .


Karena sifat dataset, saya berharap sampel di sebelumnya dianonimkan. Atau setidaknya berubah menjadi beberapa nama fiktif.

BTW, jika datanya terstruktur seperti yang ditunjukkan di atas, sebenarnya tidak perlu NER ;P

@alvations : Terima kasih! Masalah telah teratasi karena ada beberapa token kosong yang diteruskan ke NER, jadi sekarang saya telah mencentangnya.
Juga, datanya tidak terstruktur seperti yang saya tunjukkan di atas. Ini sangat tidak terstruktur, jika tidak, saya akan menggunakan ekspresi reguler atau yang lainnya :) . Saya hanya menempatkan contoh sederhana yang jelas di sini.

Saya tidak mencoba pembungkus ini lebih lanjut pada bulan April tetapi terinspirasi oleh utas ini. Itu ada hubungannya dengan ner.useSUTime di versi lama.

@hexingren Tidak ada masalah ketika saya menjalankan kode dari https://github.com/nltk/nltk/issues/2010#issuecomment -415300057 melalui korpus yang dapat diubah ukurannya.

@hexingren Bisakah Anda melakukan pemeriksaan cepat pada data Anda dan melihat apakah Anda masih mengalami masalah yang sama dengan 500 Server Error? Terima kasih sebelumnya!

Masalah yang diangkat @Bisht9887 adalah karena string kosong. Dalam hal ini, saya pikir API gagal. @dimazest Mungkin kita harus menangkap string kosong dan mengembalikan Tree() atau [] kosong?

@alvations Saya tidak menggunakan data tambahan. Saya mencoba kode contoh di NLTK v3.2.5 dan tidak berhasil di mesin saya. Jika kode contoh berfungsi di v3.3 sekarang, maka itu bagus! Terima kasih.

Ini harus bekerja di v3.3. Inilah dokumen yang diperbarui https://github.com/nltk/nltk/wiki/Stanford-CoreNLP-API-in-NLTK =)
Jangan ragu untuk membuka kembali ini jika masalah terjadi lagi.

  1. Tampaknya hal-hal yang lolos ke parser tidak boleh kosong.
    https://stackoverflow.com/questions/52031337/stanfords-corenlp-name-entity-recogniser-throwing-error-500-server-error-inter
  2. Dan jika Anda menjalankan server stanford dengan opsi -timeout , perhatikan parameternya harus lebih besar, seperti -timeout 90000 , karena tampaknya server dapat menyebabkan beberapa kesalahan koneksi ketika mem-parsing token untuk waktu yang lama waktu.

@alvations @dimazest Saya juga menghadapi masalah serupa error http://localhost :9000/?properties=%7B%22annotators%22%3A+%22tokenize%2Cssplit %2Cner%22%2C+%22ssplit.isOneSentence%22%3A+%22true%22%2C+%22outputFormat%22%3A+%22json%22%7D.

Dan saya harus setuju dengan @JohnnyLim , yang saya amati adalah ketika saya mengirim teks sebagai daftar yang memiliki lebih dari 100 item daftar. Itu melemparkan kesalahan segera tetapi ketika saya mengirim 5 item daftar pertama, itu melemparkan kesalahan setelah mencetak hasil untuk 4 item daftar pertama.

Di bawah ini adalah kesalahan lengkap yang saya dapatkan ketika saya menjalankan tag NER dengan API. NLTK == 3.4.

java.util.concurrent.TimeoutException
di java.util.concurrent.FutureTask.get(FutureTask.java:205)
di edu.stanford.nlp.pipeline.StanfordCoreNLPServer$CoreNLPHandler.handle(StanfordCoreNLPServer.java:866)
di com.sun.net.httpserver.Filter$Chain.doFilter(Filter.java:79)
di sun.net.httpserver.AuthFilter.doFilter(AuthFilter.java:83)
di com.sun.net.httpserver.Filter$Chain.doFilter(Filter.java:82)
di sun.net.httpserver.ServerImpl$Exchange$LinkHandler.handle(ServerImpl.java:675)
di com.sun.net.httpserver.Filter$Chain.doFilter(Filter.java:79)
di sun.net.httpserver.ServerImpl$Exchange.run(ServerImpl.java:647)
di java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
di java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
di java.lang.Thread.run(Thread.java:748)
Traceback (panggilan terakhir terakhir):
File "SEC_Entity_Extraction.py", baris 27, di
tagged_text = ner_tagger.tag(teks.split())
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/nltk/parse/corenlp.py", baris 366, dalam tag
kembalikan self.tag_sents([kalimat])[0]
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/nltk/parse/corenlp.py", baris 345, di tag_sents
kembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/nltk/parse/corenlp.py", baris 345, di
kembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/nltk/parse/corenlp.py", baris 387, di raw_tag_sents
tagged_data = self.api_call(kalimat, properties=default_properties)
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/nltk/parse/corenlp.py", baris 250, di api_call
response.raise_for_status()
File "/mnt/c/Users/17200391/Desktop/Python/text/lib/python3.5/site-packages/requests/models.py", baris 940, di raise_for_status
naikkan HTTPError(http_error_msg, response=self)
request.exceptions.HTTPError: 500 Server Error: Internal Server Error untuk url: http://localhost :9000/?properties=%7B%22annotators%22%3A+%22tokenize%2Cssplit%2Cner%22%2C+%22ssplit.isOneSentence% 22%3A+%22true%22%2C+%22outputFormat%22%3A+%22json%22%7D

Bisakah Anda memberi tahu jika ada solusi untuk masalah ini karena karena saya berencana menggunakan penanda NER untuk jumlah teks yang jauh lebih besar dan hanya mencoba beberapa POC pada awalnya. Setiap masukan dalam hal ini sangat dihargai.

Menambahkan ini ketika saya ketika ke GUI untuk API saya mendapatkan kesalahan ini "Waktu permintaan CoreNLP habis. Dokumen Anda mungkin terlalu panjang.".

Terima kasih,
nmakarun

Saya telah memperbarui halaman wiki https://github.com/nltk/nltk/wiki/Stanford-CoreNLP-API-in-NLTK/_compare/3d64e56bede5e6d93502360f2fcd286b633cbdb9...f33be8b06094dae21f1437a6cb634

meskipun, mungkin ada baiknya memasukkan informasi ini ke dalam dokumentasi NLTK untuk menghindari dokumentasi yang tersebar di beberapa sumber.

Saya tidak yakin mengapa Anda mengatakan bahwa masalah telah diselesaikan. Tidak bekerja untuk saya. Saya menggunakan tautan ini: https://stackoverflow.com/questions/52031337/stanfords-corenlp-name-entity-recogniser-throwing-error-500-server-error-inter

dan , sayangnya, itu tidak membantu sama sekali. Saya masih mendapatkan kesalahan.

Ini berfungsi untuk operasi penandaan lainnya (seperti penandaan pos) dan berfungsi untuk yang lainnya. Saya juga tidak berpikir itu ada hubungannya dengan teks karena penandaan ner tidak berfungsi sama sekali untuk teks dan kalimat apa pun. Saya yakin saya mengikuti instruksi dengan benar untuk memuat server: java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer \

-pramuat tokenize,split,pos,lemma,ner,parse,depparse \
-status_port 9000 -port 9000 -batas waktu 15000 &

dan tidak memiliki masalah dengan memuatnya.

Berikut adalah kode yang saya gunakan:

tagger = CoreNLPparser(url='http://localhost:9000', tagtype='ner')
text = 'Hotel ini berada di bentangan utama Piccadilly , dekat jantung Mayfair , terletak tepat di antara Hyde dan Green Parks dan beberapa blok dari Royal Academy dan stasiun bawah tanah Green Park .'

token = teks.split()
jika token:
hasil=tagger.tag(token)
untuk m dalam hasil:
cetak (m)

Inilah yang saya dapatkan:


HTTPError Traceback (panggilan terakhir terakhir)
di dalam
6 token = name_details.split()
7 jika token:
----> 8 hasil=tagger.tag(token)
9 untuk m dalam hasil:
10 cetak (m)

/Applications/anaconda3/lib/python3.7/site-packages/nltk/parse/corenlp.py dalam tag (diri, kalimat)
366 ('tanpa muatan', 'JJ'), ('menelan', 'VB'), ('?', '.')]
367 """
--> 368 kembali self.tag_sents([kalimat])[0]
369
370 def raw_tag_sents(sendiri, kalimat):

/Applications/anaconda3/lib/python3.7/site-packages/nltk/parse/corenlp.py di tag_sents(self, kalimat)
345 # Mengonversi daftar(daftar(str)) -> daftar(str)
346 kalimat = (' '.join(words) untuk kata-kata dalam kalimat)
--> 347 mengembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
348
349 tag def(diri, kalimat):

/Applications/anaconda3/lib/python3.7/site-packages/nltk/parse/corenlp.py di(.0)
345 # Mengonversi daftar(daftar(str)) -> daftar(str)
346 kalimat = (' '.join(words) untuk kata-kata dalam kalimat)
--> 347 mengembalikan [kalimat[0] untuk kalimat dalam self.raw_tag_sents(kalimat)]
348
349 tag def(diri, kalimat):

/Applications/anaconda3/lib/python3.7/site-packages/nltk/parse/corenlp.py di raw_tag_sents(sendiri, kalimat)
387 default_properties['annotators'] += self.tagtype
388 untuk kalimat dalam kalimat:
--> 389 tagged_data = self.api_call(kalimat, properties=default_properties)
390 hasil [
391 [

/Applications/anaconda3/lib/python3.7/site-packages/nltk/parse/corenlp.py di api_call(self, data, properties, timeout)
250)
251
-> 252 response.raise_for_status()
253
254 mengembalikan respons.json()

/Applications/anaconda3/lib/python3.7/site-packages/requests/models.py di raise_for_status(self)
938
939 jika http_error_msg:
-> 940 meningkatkan HTTPError(http_error_msg, response=self)
941
942 def tutup (sendiri):

HTTPError: 500 Server Error: Internal Server Error untuk url: http://localhost :9000/?properties=%7B%22outputFormat%22%3A+%22json%22%2C+%22annotators%22%3A+%22tokenize%2Cssplit%2Cner% 22%2C+%22ssplit.isOneSentence%22%3A+%22true%22%7D

Apakah halaman ini membantu?
0 / 5 - 0 peringkat