صبح در کوچه‌ی ما منتظر خنده‌ی توست

سلام

می نویسم آنچه را که مقدر باشد

طبقه بندی موضوعی

آخرین مطالب

  • ۱۱ اسفند ۹۹ ، ۲۳:۱۴ پدر

پربیننده ترین مطالب

  • ۰۸ بهمن ۹۴ ، ۲۳:۱۷ سلام

محبوب ترین مطالب

  • ۱۰ اسفند ۹۸ ، ۰۹:۴۶ حج 99
  • ۰۸ بهمن ۹۴ ، ۲۳:۱۷ سلام

۴ مطلب در اسفند ۱۳۹۴ ثبت شده است

و این من ،

زنی تنها...............

در آستانه فصلی سرد .....

 

 

تهی شدن درد بدیه

بد دردیـــــــه

بــــــد!

broken heart

م . الف گندم
۱۸ اسفند ۹۴ ، ۱۲:۲۵ موافقین ۰ مخالفین ۰ ۱ نظر

دلم می خواهد بوی عید همه جای خانه بپیچد و من جانمانم از او

جا نمانم از پیشنهاده (پروپازول) ، اردیبهشت نزدیک است !!

اینقدر دلم خواست شیرینی بپزم که مقاومت محال بود و پختم و شیرینی گردویی خوب شد نمی‌گویم عالی چون کمی رنگش ..فقط کمی طلایی شد دلم میخواست سفید باشد .

چند روزهست که میخواهم هفت سین خوشگل درست کنم ولی نه وقت گیرهست و... این یکی نه ...

سبزه مانده هنوز ...

توی باغچه لوبیا چشم بلبلی - فلفل دلمه ای رنگی - لوبیا موزاییکی ( تخت هست و بعد از پخت خیلی بزرگ میشود در حد یک سکه 500 تومانی) کاشتم هنوز سر نزده .

خانه تکانی که تا سه ساعت مانده به سال تحویل فایده ندارد چون یک ماه پیش انجام شد و دوباره هیچی سرجای خودش نیست .

 

از خوابیدن و جا موندن هراس داشته باشی بده ؟

از اینکه احساس کنی هوارتا کار داری و دلت بخواد بخوابی و بعد مانعش بشی بده ؟

من خوابم می یاد یعنی برم بخوابم ؟ امشب هم ترجمه تموم نشه ؟

 

*دیروز یک حسن یوسف خوشگل خریدم چند رنگه و کوچک باید بزرگش کنم .enlightened

 

م . الف گندم
۱۲ اسفند ۹۴ ، ۰۰:۲۰ موافقین ۱ مخالفین ۰ ۳ نظر

برای اینکه دانش آموزان جهت ارائه تمرین فلش به مدرسه نیاورند پیشنهاد دادم یک گروه در تلگرام ساخته شود و به همان آدرس ارسال شود . خلاصه گروه را ساختم و نامش را« اینجا کلاس است »گذاشتم . قول گرفتم از آنها که صبح بخیر شب بخیر نگویند . عکس و اراجیف و سخنان حکیمانه و گیاهان دارویی و تبلیغات و خزئبلات روانشناسانه نفرستند فقط درس نمونه سوال ارائه تمرین و همین ...

حالا از این چیزایی که گفتم نفرستادند ولی دور هم می نشینند و حرف می زنند و یکی که اعتراض می کند الان خانوم حذفمون میکنه می گویند ما که چیزی نگفتیم مگه اسم اینجا : اینجا کلاس است نیست ؟ خب ما تو کلاس هم از همین حرفا می زنیم !

حالا من با این وروجک ها چه کنم ؟surprise

م . الف گندم
۰۳ اسفند ۹۴ ، ۲۳:۱۰ موافقین ۱ مخالفین ۰ ۱ نظر

این متن باید زود ترجمه بشه ، خیلی سرعت ترجمه ام کمه نمی گم بد ترجمه می کنم شاید خیلی وسواس به خرج می دم .

و دایم از گوگل ترنسلیت پدربیامرز کمک میگیرم .

اینم التماس دعای ما : البته قسمتی از ابتدای مقاله است

1.1 The k-means clustering objective
One of the most widely-cited clustering objectives for
data in Euclidean space is the k-means objective. For
a finite set, S, of n points in Rd, and a fixed positive

integer, k, the k-means objective is to choose a set of
k cluster centers, C in Rd, to minimize:

اینجا فرمول داشت


which we refer to as the “k-means cost” of C on X.
This objective formalizes an intuitive measure of goodness
for a clustering of points in Euclidean space. Optimizing
the k-means objective is known to be NP-hard,
even for k = 2 [4]. Therefore the goal is to design approximation
algorithms.
Definition 1. A b-approximate k-means clustering
algorithm, for a fixed constant b, on any input data
set X, returns a clustering C such that: ! X(C) < b·OPTX , where OPTX is the optimum of the k-means
objective on data set X.

Definition 2. An (a, b)-approximate k-means clustering
algorithm, is a b-approximation algorithm that
returns at most a · k centers.
Surprisingly few algorithms have approximation guarantees
with respect to k-means, even in the batch setting.
Even the algorithm known as “k-means” does
not have an approximation guarantee .

Our contribution is a family of online clustering algorithms,
with regret bounds, and approximation guarantees
with respect to the k-means objective, of a novel
form for the online clustering setting. Notably, our
approximation bounds are with respect to the optimal
k-means cost on the entire data stream seen so far,
even though the algorithm is online.

We extend algorithms from [19] and [25] to the unsupervised
learning setting and introduce a flexible
framework in which our algorithms take a set of candidate
clustering algorithms, as experts, and track the
performance of the “best” expert, or best sequence
of experts, for the data. Instead of computing prediction
errors in order to re-weight the experts, the
algorithms compute an approximation to the current
value of the k-means objective obtained by each expert.
Our approach lends itself to settings in which
the user is unsure of which clustering algorithm to use
for a given data stream, and exploits the performance
advantages of any batch clustering algorithms used as
experts. Our algorithms vary in their models of the
time-varying nature of the data; we demonstrate encouraging
performance on a variety of data sets.

 

م . الف گندم
۰۱ اسفند ۹۴ ، ۱۹:۵۱ موافقین ۱ مخالفین ۰ ۲ نظر