-
چطور برای مصاحبه در یک موقعیت شغلی به عنوان مهندس ماشین لرنینگ یا ML engineer آماده بشوم؟
سهشنبه 2 دی 1399 16:55
مهندس ماشین لرنینگ، جزو شغلهایی ست که اخیرا در تمام دنیا و در ایران خیلی مورد نیاز است. افراد زیادی هم دنبال این هستند که با یادگیری اصول و مسائل بنیادی آن، کار خودشان را در این زمینه شروع کنند. پس هم موقعیت های کاری خوبی برای این زمینه کاری وجود دارد و هم افراد زیادی دنبال کسب این موقعیت ها هستند. ( بنابراین هم بین...
-
مصاحبه تکنیکال ساختگی
پنجشنبه 20 آذر 1399 13:58
این سایت یک سری ویدیوی ساختگی از مصاحبه تکنیکال و لایو کدینگ مصاحبههای شرکت های عموما مشهور، مثل گوگل و آمازون داره. دیدن فرآیند مصاحبه و نتایج ارزیابی، سوالهایی که پرسیده میشه و نحوه پرسیدن سوالها هم برای کسانی که قراره مصاحبه بشوند و هم برای کسانی که مصاحبه می کنند جالبه. https://interviewing.io/recordings/
-
سنجه های ارزیابی کسب و کار
پنجشنبه 14 فروردین 1399 16:11
داده ها هیچ وقت دروغ نمی گویند، البته اگر بتوانیم حرف آنها را درست بفهمیم. اگر داده ها را درست جمع آوری و تفسیر کنیم، راه گشا و یار ما در تصمیم گیری ها خواهند بود. داده هایی که از کسب و کار خود جمع آوری می کنید آینه بی واسطه تاثیر تصمیمات و اقدامات شما در محصول تان و در بازار هستند و می توانند پاسخ بسیاری از سوالهای...
-
داشبورد رصد وضعیت انتشار کرونا در ایران و دنیا
چهارشنبه 13 فروردین 1399 15:49
پ.ن : متاسفانه به خاطر اینکه سرور مورد استفاده دیگه در اختیارم نیست، داشبورد آنلاین نیست. اما لینک کد روی گیتهاب هنوز فعاله! * اگر می خواهید بدون کمترین توضیحی داشبورد را ببینید به آدرس http://167.114.167.219/ مراجعه کنید. در این مدت که متاسفانه ویروس کوووید19 در حال تسخیر دنیاست و آمار افرادی که درگیر بیماری شده اند...
-
شناسایی توهین، فحش و عبارات رکیک فارسی
چهارشنبه 25 دی 1398 22:16
برای یک پروژه نیاز به شناسایی پیامهای حاوی کلمات رکیک و فحش داشتم. این شد که نگاهی به روشها و ماژولهای پایتون موجود برای این کار انداختم. از این میان profanity-check نظرم را جلب کرد. جزییات پیاده سازی این روش در وبلاگ Victor Zhou کامل توضیح داده شده و کاری که من اینجا انجام دادم، صرفا این بود که کار این نویسنده را...
-
بعد زمان در کیوب
شنبه 30 شهریور 1398 16:43
همه آنچه که برای تعریف و تنظیم بعد زمان در SSAS لازم خواهید داشت : Creating a Date Dimension in an Analysis Services (SSAS) Cube
-
سوالات مصاحبه داده کاوی
شنبه 16 شهریور 1398 11:04
یکی از دوستانم از من خواست تا چند تا نمونه از سوالاتی که توی مصاحبه برای ارزیابی مهارت داده کاوی می شود پرسید برایش بفرستم. من لیست زیر را آماده کردم. این لیست خیلی کوتاهه و روش عمیق فکر نشده، با اینحال می تواند به درد کسانی که می خواهند برای استخدام در شغلی با این مهارت اقدام کنند مفید باشه. لیست را اینجا می گذارم و...
-
لیست کوئری هایی که در sql server در حال اجرا هستند
یکشنبه 10 شهریور 1398 12:37
در همه مشاغلی که با داده ها سر و کار دارند، مهارت به کاربردن SQL اهیمت زیادی دارد. در این مجموعه پست به دنبال به اشتراک گذاری و همین طور آرشیو کوئری های پرکاربرد هستم. بدیهی است که همه این کوئری ها رو خودم ننوشتم و خیلی از آنها نتیجه جستجوست. هر جا که یادم باشه لینک مرجع را هم خواهم کذاشت. لیست کوئری هایی که در sql...
-
مدلسازی موضوعی در R
دوشنبه 16 اردیبهشت 1398 17:20
فرض کنیم مجموعه بزرگی از متون در اختیار داریم و می خواهیم بدانیم این متون درباره چه موضوعاتی هستند؟ در این حالت الگوریتم های مدلسازی موضوعی ( topic modeling) به کارمان می آیند. مدلسازی موضوعی به دنبال این است که مجموعه از موضوعات را که اسناد یک مجموعه درباره آنها هستند را پیدا کند. ما در این پست از الگوریتم LDA که...
-
علم داده، جامعه و اخلاق!
جمعه 26 بهمن 1397 19:43
به عنوان دیتاساینتیست، مهندس یادگیری ماشین یا سایر شغلهایی که با گردآوری، ذخیره و تحلیل داده ها و توسعه الگوریتم ها و مدلهای مبتنی بر داده مرتبط هستند، چقدر به کارکرد درست الگوریتم و مدل تان فکر می کنید؟ مدلی که توسعه می دهید، چقدر از پیش داوری های ذهنی تان تاثیر می گیرد؟ آیا جایی برای دریافت بازخورد و اصلاح عملکرد...
-
آیا دولت ها باید مسئول نظارت و ایمنی هوش مصنوعی باشند؟
پنجشنبه 29 آذر 1397 00:39
این مقاله ترجمه آزادی از مطلبی با عنوان " Should Governments Be Responsible For The Regulation And Safety Of AI? " است که متن اصلی آن را می توانید اینجا بخوانید آیا دولت ها باید مسئول نظارت و ایمنی هوش مصنوعی باشند؟ تابحال کتابهای علمی-تخیلی زیادی نوشته شده و فیلمهای زیادی در این زمینه ساخته شده است. ایده...
-
شناسایی موجودیت های اسمی فارسی
شنبه 19 خرداد 1397 16:53
هفته گذشته زمان زیادی رو صرف این کردم که یک کتابخانه NER برای فارسی پیدا کنم. و خوب البته به خاطر محدودیت هایی که داشتم لازم بود که ترجیحا کتابخانه مورد نظر برای زبان JAVA هم API داشته باشه.متاسفانه کتابخانه آماده پیدا نکردم اما نتیجه جستجو به اینجا رسید که با استفاده از Stanford Core NLP و با استفاده از مجموعه داده...
-
حذف کلمات توقف فارسی در R
پنجشنبه 3 تیر 1395 23:03
در پکیج tm می توانید به سادگی با استفاده از دستور زیر کلمات توقف انگلیسی و چند زبان دیگر را از اسنادی که میخواهیم پردازش کنیم،حذف کنیم: > docs <- tm_map ( docs , removeWords , stopwords ( "english" ) ) برای اینکه لیست این کلمات را بینید کافیست دستور زیر را اجرا کنید : > stopwords (...
-
متن فارسی و R
یکشنبه 29 فروردین 1395 12:27
یکی از سوالاتی که دوستان خیلی می پرسند نحوه خواندن متن فارسی در R و تعیین انکدینگ متن هست. خوب قطعا R و پکیجهای پردازش متن آن فقط برای زبان انگلیسی ساخته نشده. راه حل این مشکل این هست که موقع خواندن متن از فایلی که انکدینگ آن UTF-8 ( یا هر انکدینگ دیگه ای هست ) باید این را به R اعلام کنید. قطعه کد زیر متن فارسی زا از...
-
تاثیر حذف کلمات توقف
یکشنبه 20 دی 1394 16:08
کلمات توقف، قبل از به کاربردن بسیاری از الگوریتم های متن کاوی، باید حذف شوند. این کلمات که بار معنایی خاصی ندارند، بسیاری از روشهای مبتنی بر آمار را به بیراهه می برند چرا که کاربرد خیلی زیادی در متن دارند بدون اینکه به موضوع یا مفهوم خاصی اشاره کنند. شکل های زیر ابر کلمات اخبار دیروز، 19 دی ماه 1394، را قبل و بعد از...
-
تحلیل اتوماتیک اخبار هفته گذشته از 6دی (یکشنبه پیش) تا 12 دی (دیروز- شنبه)
یکشنبه 13 دی 1394 18:31
تحلیل اتوماتیک اخبار هفته گذشته از 6دی (یکشنبه پیش) تا 12 دی (دیروز- شنبه) فقط ابرکلمات و گراف باهم آیی کلمات را می گذارم. همین هم خوب نشان میدهد که هفته گذشته در دنیا چه خبر بوده است : این هم لینک تیتر خبرهایی که استفاده کردم
-
تحلیل اتوماتیک اخبار
جمعه 13 آذر 1394 19:51
در این پست می خواهم نشان بدهم چطور حتی بدون استفاده از پیش پردازش های خاص، مثل الگوریتم واحد سازی مخصوص زبان فارسی و یا ریشه یابی کلمات فارسی می توانیم نتایج قابل قبولی از روشهای متن کاوی روی متون فارسی بدست بیاوریم. برای این منظور از مجموعه تیتر اخبار دیروز، 12 آذر 1394، استفاده کرده ایم. از هیچ روش معنایی هم استفاده...