earth

در روشن

به دنبال فهم ماشینی دنیا هستیم

تا انسان را به توان ماشینی برسانیم

در روشن

به دنبال فهم ماشینی دنیا هستیم

تا انسان را به توان ماشینی برسانیم

earth

کشف

آموزش آسان ماشین

کشف با دیدن مثال‌هایی از یک مفهوم تازه در متن یا تصویر آن را می‌شناسد و
نمونه‌های دیگر آن مفهوم را پیدا می کند. برای شناسایی چهره
کشف با دیدن مثال‌هایی از یک مفهوم تازه در متن یا تصویر آن را می‌شناسد و نمونه‌های دیگر آن مفهوم را پیدا می کند.
برای شناسایی چهره

الفبا

تبدیل تصویر به نوشته (OCR)

الفبا نوشته‌های فارسی، عربی و انگلیسی را در تصویر اسناد می‌خواند. الفبا ساختار
سند را هم تحلیل می‌کند و با قلم‌های مختلف آشناست.

الفبا نوشته‌های فارسی، عربی و انگلیسی را در تصویر اسناد می‌خواند. الفبا ساختار سند را هم تحلیل می‌کند و با قلم‌های مختلف آشناست.

Flowers

حرف

تبدیل گفتار به متن

حرف با استفاده از هزاران ساعت گفتار با صدای افراد مختلف، زبان فارسی را
یاد گرفته است و می‌تواند متن صحبت‌ها را بنویسد.

حرف با استفاده از هزاران ساعت گفتار با صدای افراد مختلف، زبان فارسی را یاد گرفته است و می‌تواند متن صحبت‌ها را بنویسد.

Harf Image

هضم

تحلیل متن های فارسی

تمیز و مرتب کردن متن، تقطیع جمله ها و واژه ها، ریشه یابی واژه ها، تحلیل
صرفی جمله و تجزیه نحوی جمله

تمیز و مرتب کردن متن، تقطیع جمله ها و واژه ها، ریشه یابی واژه ها، تحلیل صرفی جمله و تجزیه نحوی جمله

>>>  from  hazm  import  *
>>> normalizer  Normalizer ()
>>> normalizer. normalize ( ' می کند  آسان  را  پردازش  فاصله  نیم  از  استفاده  و  نویسه ها  اصلاح  ' )
' می کند  آسان  را  پردازش  فاصله  نیم  از  استفاده  و  نویسه ها  اصلاح  '
>>> sent_tokenize( ' ؟ نیست بهتر  جدا  ،  پردازش  برای  ولی  آمدیم کردن  وصل  برای  هم  ما  ' )
[ ' ؟ نیست بهتر  جدا  ،  پردازش برای  ولی  , ! آمدیم کردن  وصل  برای  هم  ما  ' ]
>>> word_tokenize ( ' ؟ نیست بهتر  جدا  ،  پردازش برای  ولی  ' )
[ 'ولی' 'برای' 'پردازش' ،  'جدا' 'بهتر' 'نیست' '؟' ]
>>> stemmer  Stemmer()
>>> stemmer. stem('کتاب‌ها' )
'کتاب'
>>> lemmatizer  Lemmatizer()
>>> lemmatizer. lemmatize('می‌روم' )
'رفت# رو'
>>> tagger  POSTagger(model ='resources /postagger. model')
>>> tagger. tag(word_tokenize (' می خوانیم کتاب  بسیار  ما  '))
[('ما', 'PRO'),( 'بسیار','ADV' ),('کتاب' ,'N'),( 'می خوانیم','V' )]
>>> chunker  Chunker( model='resources /chunker. model')
>>> tagged  tagger.tag (word_tokenize (' داریم دوست  را  خواندن  کتاب  ' ))
>>> tree2brackets( chunker.parse (tagged))
'[ خواندن  کتاب  NP[ را POSTP [ داریم  دوست  VP]'
>>> parser  DependencyParser(tagger  tagger, lemmatizer=lemmatizer )
>>> parser. parse(word_tokenize (' ؟ می آید در  صدا  به  کی  برای  زنگ ها  '))
<DependencyGraph  with nodes >
مشتریان ما