رفتن به مطلب

پشتیبانی کامل معماری Pascal از Async Compute


Recommended Posts

نظر بنده تغییر نکرده نمیدونم چی باعث شده شما فکر کنید که خلاف این قضیه بوده، هنوز هم میگم این محصولات انویدیا نیستند که نیاز به بتونه کاری دارند! چند ساله که تراشه های پرچمدار AMD توسط محصولات میان رده به تعطیلات می روند؟!

Preemption هم گفتم یه چیزی متفاوت از Async Compute هست و مسیر کاملا متفاوتی رو طی میکنه! این Async Compute نیست یه تکنولوژی جدید بهینه برای معماری پاسکال هست...

انویدا از معماری Fermi به بعد بخش های پردازشی مرتبط با پردازش های محاسباتی و غیر گیمینگ رو از معماری خارج کرده، دلیل قانع کننده ای هم داشته Geforce GTX محصولاتی برای گیم هستند نه رندرینگ!

برخلاف AMD انویدیا اجازه نمیده منابع با ارزش پردازشی تراشه های گرافیکی هرز برن! از کوچکترین بخش ها نهایت استفاده رو میکنه نتیجه اش هم میشه اینکه با رابط حافظه و قدرت پردازشی کمتر همیشه پیروز میدان بوده

در معماری پاسکال هم انویدیا با توجه به تمرکز زیادی که بر روی بخش های صنعتی (خودروسازی، هوش مصنوعی و ....) تراکم پردازشی Compute رو افزایش داده و حتی از نسل Fermi هم بهتر شده، خب همونطور که گفتم انویدیا نهایت استفاده رو از منابع پردازشی محصولاتش میبره اینجا هم قرار نیست بخش های پردازشی دیگر تراشه بیکار باشند در نتیجه Preemption معرفی میشه!

معماری Maxwell نسبت FP64 به FP32 بسیار پایینی داره و از Kepler خیلی پایین تر قرار میگیره، دلیل عدم معرفی کارت Tesla جدید با معماری Maxwell به همین خاطر بوده، در پاسکال نسبت بخش پردازشی Double-Precision به Single-Precision یا FP32 به مقدار 2:1 رسیده است و در تراشه پرچمدار معماری Kepler این نسبت برابر 3:1 بوده است! پس شروع نسل جدید گرافیک ها با محصولی مثله Tesla P100 کاملا منطقی به نظر می رسد.

چند سالی که AMD در خواب خرگوشی بوده و محصولاتش رو با دو برابر قدرت پردازشی اما نصف بازده کلی به بازار صادر میکرده انویدیا نیازی ندیده زیاد زحمتی به خودش بده.....

Capisce؟!

@};-

یا من متوجه نمیشم شما داری چی میگی یا شما متوجه نمیشی من چی میگم . شاید هم در انتقال پیام مشکل داریم .

 

بزارید تا به یک نحو دیگه حرفم رو بگم . جا هایی که از شما نقل قول میکنم در واقع دارم اون چیزی رو که از حرفهای شما میفهمم رو میگم اگر اشتباه میکنم بگید ! ( شده مثل دانشگاه استاد حرف میزنه دانشجو برداشت میکنه توی امتحان نمره نمیگیره چون درست برداشت نکرده )

 

 

تا اونجایی که من فهمیدم ، شما گفتید که فناوری Async Compute بدرد انویدیا نمیخوره چرا که این فناوری موجب میشه که قدرت پردازشی هرز رفته گرافیک مورد استفاده قرار بگیره و چون انویدیا کارت گرافیکش رو جوری میسازه که از همه توانش به طور صحیح استفاده میکنه اصلا بار هرز رفته ای نمیمونه که بخواد با این فناوری دوباره مورد استفاده قرار بگیره . از اون طرف شما در پست اول همین تاپیک نوشتید که ( هدف Preemption دقیقا مشابه Async Compute جهت استفاده از سایر منابع پردازشی تراشه گرافیگی (GPU) جهت توسعه عملکردی کلی می باشد. ) من از این متن این نتیجه رو میگیرم  درسته که Preemption و Async Compute با هم متفاوت هستند اما چون هدف یکسانی دارن نتیجه یکسانی دارن . در واقع Preemption از قدرت هرز رفته گرافیک دوباره استفاده میکنه خب اگر انویدیا کارتهاش بدون نقص هست و قدرتی هرز نمیره Preemption به چه دردش میخوره ؟؟؟ آیا سایر منابعی که ازش حرف میزنید همون قرت پردازشی هرز رفته نیست ؟ چرا در نسل های گذشته از این سایر منابع استفاده نمیشد ؟؟؟ آیا این منابع در نسل های پیش هدر نمیرفتن ؟؟؟

 

 

انویدیا نیازی نداشته همون جوری خوب بوده  ، حالا هم که به فناوریش دست پیدا کرده که دیگه چه بهتر  ^_^

اگر واقعا نیازی نداشته پس الان هم نباید تاثیری داشته باشه ! اگر هم تاثیر داره پس در نسل قبل هم تاثیر داشته اما انویدیا نمیتونسته ازش استفاده کنه و درواقع قدرت گرافیک هاش هرز میرفته .

 

عزیز چزا حرس میخوری ؟

به فرض همون اسیک کمپیوت هست که نیست

الان دقیقا مشکل شما چیه ؟

DX12 و رابط های جدید از این ویژگی دارن استفاده میکنن و انویدیا هم این ویژگی رو اضافه کرده ! کار عجیبی انجام نداده !!!!

انویدیا کار عجیبی انجام داده به شرطی که بپذیریم به این کار نیازی نداشته و هیچ قدرت پردازشی هدر نمیرفته که حالا بخواد استفاده بشه ! در واقع انویدیا یک فناوری کاملا غیر ضروری رو به کارتهاش اضافه کرده که در نهایت هیچ کمکی به کارتهاش نمیکنه چون کارتهاش اصلا هدر رفت پردازشی نداشتن که الان بخواد جبران بشه !

این دو فناوری شاید با هم متفاوت باشن اما در عمل و در نهایت و در هدف یکی هستند .

 

 

 

 

اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده

لینک به دیدگاه
Share on other sites

انویدیا کار عجیبی انجام داده به شرطی که بپذیریم به این کار نیازی نداشته و هیچ قدرت پردازشی هدر نمیرفته که حالا بخواد استفاده بشه ! در واقع انویدیا یک فناوری کاملا غیر ضروری رو به کارتهاش اضافه کرده که در نهایت هیچ کمکی به کارتهاش نمیکنه چون کارتهاش اصلا هدر رفت پردازشی نداشتن که الان بخواد جبران بشه !

این دو فناوری شاید با هم متفاوت باشن اما در عمل و در نهایت و در هدف یکی هستند .

 

 

 

 

اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده

عزیز شما مهندس سخت افزاری که راجع به نیاز سخت افزاری انویدیا و استفاده از تکنولوژی با این قطعیت نظریه میدی ؟

از کجا میدونی این فناوری برای انویدیا کاملا غیر ضروریه و هیچ کمکی به انویدیا نمیکنه!؟؟؟

لینک به دیدگاه
Share on other sites

یا من متوجه نمیشم شما داری چی میگی یا شما متوجه نمیشی من چی میگم . شاید هم در انتقال پیام مشکل داریم .

 

بزارید تا به یک نحو دیگه حرفم رو بگم . جا هایی که از شما نقل قول میکنم در واقع دارم اون چیزی رو که از حرفهای شما میفهمم رو میگم اگر اشتباه میکنم بگید ! ( شده مثل دانشگاه استاد حرف میزنه دانشجو برداشت میکنه توی امتحان نمره نمیگیره چون درست برداشت نکرده )

 

 

تا اونجایی که من فهمیدم ، شما گفتید که فناوری Async Compute بدرد انویدیا نمیخوره چرا که این فناوری موجب میشه که قدرت پردازشی هرز رفته گرافیک مورد استفاده قرار بگیره و چون انویدیا کارت گرافیکش رو جوری میسازه که از همه توانش به طور صحیح استفاده میکنه اصلا بار هرز رفته ای نمیمونه که بخواد با این فناوری دوباره مورد استفاده قرار بگیره . از اون طرف شما در پست اول همین تاپیک نوشتید که ( هدف Preemption دقیقا مشابه Async Compute جهت استفاده از سایر منابع پردازشی تراشه گرافیگی (GPU) جهت توسعه عملکردی کلی می باشد. ) من از این متن این نتیجه رو میگیرم  درسته که Preemption و Async Compute با هم متفاوت هستند اما چون هدف یکسانی دارن نتیجه یکسانی دارن . در واقع Preemption از قدرت هرز رفته گرافیک دوباره استفاده میکنه خب اگر انویدیا کارتهاش بدون نقص هست و قدرتی هرز نمیره Preemption به چه دردش میخوره ؟؟؟ آیا سایر منابعی که ازش حرف میزنید همون قرت پردازشی هرز رفته نیست ؟ چرا در نسل های گذشته از این سایر منابع استفاده نمیشد ؟؟؟ آیا این منابع در نسل های پیش هدر نمیرفتن ؟؟؟

 

 

اگر واقعا نیازی نداشته پس الان هم نباید تاثیری داشته باشه ! اگر هم تاثیر داره پس در نسل قبل هم تاثیر داشته اما انویدیا نمیتونسته ازش استفاده کنه و درواقع قدرت گرافیک هاش هرز میرفته .

 

انویدیا کار عجیبی انجام داده به شرطی که بپذیریم به این کار نیازی نداشته و هیچ قدرت پردازشی هدر نمیرفته که حالا بخواد استفاده بشه ! در واقع انویدیا یک فناوری کاملا غیر ضروری رو به کارتهاش اضافه کرده که در نهایت هیچ کمکی به کارتهاش نمیکنه چون کارتهاش اصلا هدر رفت پردازشی نداشتن که الان بخواد جبران بشه !

این دو فناوری شاید با هم متفاوت باشن اما در عمل و در نهایت و در هدف یکی هستند .

 

 

 

 

اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده

درود .

همانطور که در بالا عرض کردم  استفاده از async compute مثل یه دوپینگ برای پردازشگر گرافیکی میمونه یعنی قدرتش را مضاعف می کند ، اتفاقاً  برای انویدیا استفاده از این تکنیک یا تکنیک های مشابه باعث افزایش کارایی کارت گرافیک در پردازش های همزمان - موازی و بدون ایجاد وقفه میشه .

کارت های ای ام دی از سری 7000 به بعد از این تکنولوژی به صورت سخت افزاری و در سطح پایین دسترسی به GPU ( یعنی نزدیک ترین ارتباط را با پردازشگر گرافیکی دارد )  استفاده می کند . اما به دلیل اینکه تکنولوژی DX11 اجازه استفاده گسترده از این تکنیک را نمی دهد همین باعث میشه که کارت های ای ام دی در DX11 درجا بزنند اما در دایرکت ایکس 12  افزایش کارایی پیدا می کنند به خاطر همین تکنیک .

هیچ کس نمیتونه ضعف معماری ای ام دی در سری های قبل را انکار کنه مخصوصاً ضعف معماری کارت Fury x . از لحاظ  مشخصات سخت افزاری این کارت دو برابر GTX 980Ti قدرتشه ( روی کاغذ البته ) ! اما در تست ها و نتیاج  عملکرد این دو کارت به هم نزدیکه و در موارد زیادی برتری با GTX 980Ti است . حال این کارت بیاد و از async compute هم استفاده کنه واقعاً دور از انصاف هست که بگیم کارت های انویدیا مشکل دارن یا حرف های دیگر  . وقتی ای ام دی با وجود مشخصات سخت افزاری بالا دو پینگ هم میکنه چرا انویدیا از این روش استفاده نکنه تا کارایی کارت هاش بیشتر بشه ؟

لینک به دیدگاه
Share on other sites

عزیز شما مهندس سخت افزاری که راجع به نیاز سخت افزاری انویدیا و استفاده از تکنولوژی با این قطعیت نظریه میدی ؟

از کجا میدونی این فناوری برای انویدیا کاملا غیر ضروریه و هیچ کمکی به انویدیا نمیکنه!؟؟؟

شما متوجه حرف من نشدی .

اتفاقا من میگم این فناوری کاملا به درد انویدیا میخوره . چون کارتهای انویدیا هم مثل کارتهای AMD مقداری از توانشون هرز میره .

 

 

من گفتم : اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده . من برای نتیجه گیری که کردم یک پیش شرط قرار دادم که اون پیش شرط رو از صحبت های استارتر در یک جای دیگه نتیجه گرفته بودم . در واقع تمام حرف من اینه که یا باید بپذیریم که قدرت کارتهای انویدیا هرز میرفته یا این که بپذیریم انویدیا یک تکنولوژی کاملا بیخود رو به کارتهاش اضافه کرده که درنهایت هیچ تاثیری نداره !

 

در وافع من معتقدم برخلاف نظر دوستان قدرت کارتهای انویدیا هرز میرفته و انویدیا با اضافه کردن این فناوری مشکل رو حل کرده . دقیقا برخلاف اون چیزی که دوستمون میگفت .

درود .

همانطور که در بالا عرض کردم  استفاده از async compute مثل یه دوپینگ برای پردازشگر گرافیکی میمونه یعنی قدرتش را مضاعف می کند ، اتفاقاً  برای انویدیا استفاده از این تکنیک یا تکنیک های مشابه باعث افزایش کارایی کارت گرافیک در پردازش های همزمان - موازی و بدون ایجاد وقفه میشه .

کارت های ای ام دی از سری 7000 به بعد از این تکنولوژی به صورت سخت افزاری و در سطح پایین دسترسی به GPU ( یعنی نزدیک ترین ارتباط را با پردازشگر گرافیکی دارد )  استفاده می کند . اما به دلیل اینکه تکنولوژی DX11 اجازه استفاده گسترده از این تکنیک را نمی دهد همین باعث میشه که کارت های ای ام دی در DX11 درجا بزنند اما در دایرکت ایکس 12  افزایش کارایی پیدا می کنند به خاطر همین تکنیک .

هیچ کس نمیتونه ضعف معماری ای ام دی در سری های قبل را انکار کنه مخصوصاً ضعف معماری کارت Fury x . از لحاظ  مشخصات سخت افزاری این کارت دو برابر GTX 980Ti قدرتشه ( روی کاغذ البته ) ! اما در تست ها و نتیاج  عملکرد این دو کارت به هم نزدیکه و در موارد زیادی برتری با GTX 980Ti است . حال این کارت بیاد و از async compute هم استفاده کنه واقعاً دور از انصاف هست که بگیم کارت های انویدیا مشکل دارن یا حرف های دیگر  . وقتی ای ام دی با وجود مشخصات سخت افزاری بالا دو پینگ هم میکنه چرا انویدیا از این روش استفاده نکنه تا کارایی کارت هاش بیشتر بشه ؟

دوباره برگشتیم جای اول .

 

اصلا صحبت سر AMD  نیست .

صحبت فقط سر انویدیاست

 

ببینید این فناوری جدید کارش اینه که اجازه میده کارت گرافیک از همه توانش برای پردازش استفاده کنه و مانع میشه که قدرت کارت گرافیک هرز بره .

خب اگر انویدیا کارتهاش رو جوری میساخته که از همه قدرتش استفاده کنه پس این فناوری به هیچ دردش نمیخوره و هیچ تاثیری در پرفورمنس نهایی نداره .

 

این فناوری فقط زمانی بدرد میخوره که بتونه قدرت هرز رفته گرافیک رو به کار ببنده اگر کارت گرافیک اصلا قدرتش هرز نمیرفته پس ابن فناوری به هیچ دردش نمیخورده .

 

اما اتفاقی که داره میفته اینه !

انویدیا در نسلهای گذشته از جمله نسل 700 و 900 با مشکل هرز رفتن توان پردازشی گرافیک هاش روبه رو بود . بعد از ارائه دایرکس جدید انویدیا موفق شد با فناوری Preemption که هدفی کاملا مشابه Async Compute داره و مانع از هرز رفتن قدرت پردازشی گرافیک میشه جلو هرز رفتن رو بگیره ( البته هنوز معلوم نیست که چقدر موفق بوده ) پس این حرف که انویدیا به Async Compute نیازی نداره و کارتهاش از نهایت پرفورمنشون استفاده میکردن نادرسته !!!

 

post-15235-0-46355800-1462796844_thumb.jpg

ویرایش شده توسط big VULTURE
لینک به دیدگاه
Share on other sites

یا من متوجه نمیشم شما داری چی میگی یا شما متوجه نمیشی من چی میگم . شاید هم در انتقال پیام مشکل داریم .

 

بزارید تا به یک نحو دیگه حرفم رو بگم . جا هایی که از شما نقل قول میکنم در واقع دارم اون چیزی رو که از حرفهای شما میفهمم رو میگم اگر اشتباه میکنم بگید ! ( شده مثل دانشگاه استاد حرف میزنه دانشجو برداشت میکنه توی امتحان نمره نمیگیره چون درست برداشت نکرده )

 

 

تا اونجایی که من فهمیدم ، شما گفتید که فناوری Async Compute بدرد انویدیا نمیخوره چرا که این فناوری موجب میشه که قدرت پردازشی هرز رفته گرافیک مورد استفاده قرار بگیره و چون انویدیا کارت گرافیکش رو جوری میسازه که از همه توانش به طور صحیح استفاده میکنه اصلا بار هرز رفته ای نمیمونه که بخواد با این فناوری دوباره مورد استفاده قرار بگیره . از اون طرف شما در پست اول همین تاپیک نوشتید که ( هدف Preemption دقیقا مشابه Async Compute جهت استفاده از سایر منابع پردازشی تراشه گرافیگی (GPU) جهت توسعه عملکردی کلی می باشد. ) من از این متن این نتیجه رو میگیرم  درسته که Preemption و Async Compute با هم متفاوت هستند اما چون هدف یکسانی دارن نتیجه یکسانی دارن . در واقع Preemption از قدرت هرز رفته گرافیک دوباره استفاده میکنه خب اگر انویدیا کارتهاش بدون نقص هست و قدرتی هرز نمیره Preemption به چه دردش میخوره ؟؟؟ آیا سایر منابعی که ازش حرف میزنید همون قرت پردازشی هرز رفته نیست ؟ چرا در نسل های گذشته از این سایر منابع استفاده نمیشد ؟؟؟ آیا این منابع در نسل های پیش هدر نمیرفتن ؟؟؟

 

 

اگر واقعا نیازی نداشته پس الان هم نباید تاثیری داشته باشه ! اگر هم تاثیر داره پس در نسل قبل هم تاثیر داشته اما انویدیا نمیتونسته ازش استفاده کنه و درواقع قدرت گرافیک هاش هرز میرفته .

 

انویدیا کار عجیبی انجام داده به شرطی که بپذیریم به این کار نیازی نداشته و هیچ قدرت پردازشی هدر نمیرفته که حالا بخواد استفاده بشه ! در واقع انویدیا یک فناوری کاملا غیر ضروری رو به کارتهاش اضافه کرده که در نهایت هیچ کمکی به کارتهاش نمیکنه چون کارتهاش اصلا هدر رفت پردازشی نداشتن که الان بخواد جبران بشه !

این دو فناوری شاید با هم متفاوت باشن اما در عمل و در نهایت و در هدف یکی هستند .

 

 

 

 

اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده

 

در جدول های زیر نسبت پردازشگر واحد های FP64 و FP32 در دو تراشه Tahiti و GK110 مشخص شده، خب نیازی نیست بگم GK110 بر روی GTX 780Ti و Titan Black سوار شده و Tahiti هم قلب تپنده HD7970 یا R9 280X هست!

 

d4wcptapjytbbt5jvngn.png

 

wbiszh7hsf5bw287psel.png

 

خب به پتانسیل بخش پردازشی FP64 دقت کنید! این نسبت در نسل های بعدی AMD چند برابر شده...

اما این نسبت در کارت Tesla K40 به چه صورت هست؟

 

7sw80abapjc3d1tzot1p.png

 

با توجه به اینکه که در پردازش های در رابطه با گیمینگ FP32 نقش سازنده ای داره انویدیا در تراشه های سری Geforce GTX نسبت FP32 به FP64 رو کاملا افزایش داده، در طی سه نسل Fermi و Kepler و Maxwell این روند نزولی بوده تا اینکه در Pascal به دلیل سرمایه گذاری انویدیا در بخش HPC به ناچار این نسبت به حد مناسبی رسیده، البته این مسئله فقط در مورد تراشه های بازار تجاری غیر گیمینگ صدق میکنه، قطعا انویدیا در محصولاتی نظیر GTX 1080 و GTX 1070 نسبت مورد نظر را تغییر داده و تراشه های GP104 در بخش FP32 بهتر از FP64 هستند.

 

grwogjaflvh8p7erc0i4.png

 

jf0gyzk98mdd6jxpfglw.png

در کنار منابع لازم تراشه باید از نظر سخت افزاری scheduler لازم رو برای استفاده از این منابع داشته باشه که ظاهرا نسل های قبلی انویدیا به دلیل توان پردازشی کم نیازی به scheduling بهتر هم نداشتند!

امیدوارم متوجه موضوع شده باشید @};-

ویرایش شده توسط RONIN021
لینک به دیدگاه
Share on other sites

 

در جدول های زیر نسبت پردازشگر واحد های FP64 و FP32 در دو تراشه Tahiti و GK110 مشخص شده، خب نیازی نیست بگم GK110 بر روی GTX 780Ti و Titan Black سوار شده و Tahiti هم قلب تپنده HD7970 یا R9 280X هست!

 

d4wcptapjytbbt5jvngn.png

 

wbiszh7hsf5bw287psel.png

 

خب به پتانسیل بخش پردازشی FP64 دقت کنید! این نسبت در نسل های بعدی AMD چند برابر شده...

اما این نسبت در کارت Tesla K40 به چه صورت هست؟

 

7sw80abapjc3d1tzot1p.png

 

با توجه به اینکه که در پردازش های در رابطه با گیمینگ FP32 نقش سازنده ای داره انویدیا در تراشه های سری Geforce GTX نسبت FP32 به FP64 رو کاملا افزایش داده، اما چرا؟ در طی سه نسل Fermi و Kepler و Maxwell این روند نزولی بوده تا اینکه در Pascal به دلیل سرمایه گذاری انویدیا در بخش HPC به ناچار این نسبت به حد مناسبی رسیده، البته این مسئله فقط در مورد تراشه های بازار تجاری غیر گیمینگ صدق میکنه، قطعا انویدیا در محصولاتی نظیر GTX 1080 و GTX 1070 نسبت مورد نظر را تغییر داده و تراشه های GP104 در بخش FP32 بهتر از FP64 هستند.

 

grwogjaflvh8p7erc0i4.png

 

jf0gyzk98mdd6jxpfglw.png

 

امیدوارم متوجه موضوع شده باشید @};-

ok

الان بهتر شده !

لینک به دیدگاه
Share on other sites

شما متوجه حرف من نشدی .

اتفاقا من میگم این فناوری کاملا به درد انویدیا میخوره . چون کارتهای انویدیا هم مثل کارتهای AMD مقداری از توانشون هرز میره .

 

 

من گفتم : اگر ما بپذیریم که قدرت کارتهای انویدیا هرز نمیرفته پس این فناوری جدید کاملا بی تاثیره و قرار نیست کاری انجام بده . من برای نتیجه گیری که کردم یک پیش شرط قرار دادم که اون پیش شرط رو از صحبت های استارتر در یک جای دیگه نتیجه گرفته بودم . در واقع تمام حرف من اینه که یا باید بپذیریم که قدرت کارتهای انویدیا هرز میرفته یا این که بپذیریم انویدیا یک تکنولوژی کاملا بیخود رو به کارتهاش اضافه کرده که درنهایت هیچ تاثیری نداره !

 

در وافع من معتقدم برخلاف نظر دوستان قدرت کارتهای انویدیا هرز میرفته و انویدیا با اضافه کردن این فناوری مشکل رو حل کرده . دقیقا برخلاف اون چیزی که دوستمون میگفت .

دوباره برگشتیم جای اول .

 

اصلا صحبت سر AMD  نیست .

صحبت فقط سر انویدیاست

 

ببینید این فناوری جدید کارش اینه که اجازه میده کارت گرافیک از همه توانش برای پردازش استفاده کنه و مانع میشه که قدرت کارت گرافیک هرز بره .

خب اگر انویدیا کارتهاش رو جوری میساخته که از همه قدرتش استفاده کنه پس این فناوری به هیچ دردش نمیخوره و هیچ تاثیری در پرفورمنس نهایی نداره .

 

این فناوری فقط زمانی بدرد میخوره که بتونه قدرت هرز رفته گرافیک رو به کار ببنده اگر کارت گرافیک اصلا قدرتش هرز نمیرفته پس ابن فناوری به هیچ دردش نمیخورده .

 

اما اتفاقی که داره میفته اینه !

انویدیا در نسلهای گذشته از جمله نسل 700 و 900 با مشکل هرز رفتن توان پردازشی گرافیک هاش روبه رو بود . بعد از ارائه دایرکس جدید انویدیا موفق شد با فناوری Preemption که هدفی کاملا مشابه Async Compute داره و مانع از هرز رفتن قدرت پردازشی گرافیک میشه جلو هرز رفتن رو بگیره ( البته هنوز معلوم نیست که چقدر موفق بوده ) پس این حرف که انویدیا به Async Compute نیازی نداره و کارتهاش از نهایت پرفورمنشون استفاده میکردن نادرسته !!!

 

attachicon.gif1.jpg

دوست من درست متوجه نشدی منظور بنده را ، ببین استفاده از تکنیک پردازش های موازی و ناهمگون یا همان async compute باعث افزایش کارایی در یک پردازشگر گرافیکی میشه ، فذقی نمیکنه که انویدیا و ای ام دی باشه . انویدیا از اول هم به این تکنولوژی نیاز نداشت اما چون حریف از این تکنیک استفاده میکنه تا انویدیا را مغلوب کند چرا انویدیا از این تکنیک استفاده نکنه ؟ این روش یه نوع دوپیگ برای کارت های گرافیک است که باغث افزایش کارایی میشه ، حالا انویدیا هم از این تکنولوژی  استفاده میکنه تا تنها برگ برنده رقیب را ازش بگیره همین .

لینک به دیدگاه
Share on other sites

نظر بنده تغییر نکرده نمیدونم چی باعث شده شما فکر کنید که خلاف این قضیه بوده، هنوز هم میگم این محصولات انویدیا نیستند که نیاز به بتونه کاری دارند! چند ساله که تراشه های پرچمدار AMD توسط محصولات میان رده به تعطیلات می روند؟!

Preemption هم گفتم یه چیزی متفاوت از Async Compute هست و مسیر کاملا متفاوتی رو طی میکنه! این Async Compute نیست یه تکنولوژی جدید بهینه برای معماری پاسکال هست...

 

sli هم قرار بود از cross متفاوت باشه !  مطمئن باشید تفاوت فقط انقدری هست که پتنتو پیچونده باشه ! به حال منو شما در عمل فرقی نمیکنه !

 

انویدا از معماری Fermi به بعد بخش های پردازشی مرتبط با پردازش های محاسباتی و غیر گیمینگ رو از معماری خارج کرده، دلیل قانع کننده ای هم داشته Geforce GTX محصولاتی برای گیم هستند نه رندرینگ!

 

دلیلش جداسازی بازار هر دو حوزست ! برای تصاحب متمرکز و سود بیشتر ؛ و منسجم ترشم با طراحی 2 نسل از پایه متفاوت با عنوان واحد کپلر (GK110 و GK104) شاهد بودیم !

بعد اومد Titan و معرفی کرد که یه بازار میانه عرضه کرده باشه با سود مشترک Pro ( Cad o compute) + GAME تا تو کامپوتم از بازار GCN کم نیاره ! یه نگاه به اخبار اون زمان بندازید بد نیست دوست من !) چرا همچین اتفاقی به طور جدی برای maxwell نیفتاد ! 

قطعا چون GK110 با هدف پروژه های عظیم  sc اون زمان ، طراحی و اصلاح شده بود SC Titan , ...... ؛ ولی عملا هیچ پروژه ی کلان~ HPC برای max2 پایریزی نشد ! انصافا max 2 ، بهترین نسل  کابر gamer , general بود با اون بهینه سازی افسانه ایش!!!! و همه ی ما دوسش داشیم ، به خصوص 970 حاشیه دارشو ! چون هدف و فلسفه ی ساختش غیر از این نبود...

بله هنوز هم زیادن CAD , Compute engine هایی که به شدت با fermi سازگارن و پس از اون با gk110 ! 

و در انتخاب پلت فرم توسعه ی پیشنهادی Deep learning ،گرافیک GTX 580 به شدت بر gk104 ترجیح داده میشه و در مواردی همرده ی gk110 !!!

nvidia رو که دیگه همه ی ما خوب میشناسیم ! به شدت تیم تبلیغاتی و بازار یابی قویی داره ! و بهتر از اون خود جن ، که بسیار خوب و سخنورانه حرف میزنه ! انقدر که افتضاح 0.5+3.5G رو با منت بر مصرف کننده!!! به  گردن تیم بازاریابی و تبلیغ میندازه تا در رسانه ها گم بشه! ....

 

 

  

 

برخلاف AMD انویدیا اجازه نمیده منابع با ارزش پردازشی تراشه های گرافیکی هرز برن!  از کوچکترین بخش ها نهایت استفاده رو میکنه نتیجه اش هم میشه ا$$$ :clapping: ینکه با رابط حافظه و قدرت پردازشی کمتر همیشه پیروز میدان بوده ؟؟؟ :-?  [-X

در معماری پاسکال هم انویدیا با توجه به تمرکز زیادی که بر روی بخش های صنعتی (خودروسازی، هوش مصنوعی و ....) تراکم پردازشی Compute رو افزایش داده و حتی از نسل Fermi هم بهتر شد :D ه، خب همونطور که گفتم انویدیا نهایت استفاده رو از منابع پردازشی محصولاتش میبره اینجا هم قرار نیست بخش های پردازشی دیگر تراشه بیکار باشند در نتیجه Preemption معرفی میشه!

معماری Maxwell نسبت FP64 به FP32 بسیار پایینی داره و از Kepler (?)خیلی پایین تر قرار میگیره، دلیل عدم معرفی کارت Tesla جدید با معماری Maxwell به همین خاطر بوده،(علت جای معلول واقع شده) 8-}  (هر معماری سیاست و فلسفه ی خودش رو داره ! این که دلیل نشد) در پاسکال (?) نسبت بخش پردازشی Double-Precision به Single-Precision یا FP32 به مقدار 2:1 رسیده است و در تراشه پرچمدار معماری Kepler (?)این نسبت برابر 3:1 بوده است! ( به همچنین)  پس شروع نسل جدید گرافیک ها با محصولی مثله Tesla P100 کاملا منطقی به نظر می رسد.   :Praying:  =P~ :puke:   :daydreaming: :whew:   ^#(^   :-t  :huh:   :I Do not Know:  :rolleyes:    :-SS  :-c  :Hee Hee:  :-h  @-)  :confused:  :-B  =((   |-)     (:|  (شرمنده ! اینجاشو که رسیدم یه لحضه فکر کردم با برو بچه ها تو سالنیمو چش تو چش جن سون !!! حیف که جای هممون نشد ! خودتون زحمت صف کردنشونو بکشید...)

چند سالی که AMD در خواب خرگوشی بوده و محصولاتش رو با دو برابر قدرت پردازشی اما نصف بازده کلی به بازار صادر میکرده انویدیا نیازی ندیده زیاد زحمتی به خودش بده.....

Capisce؟! %-(   =))  :o) 

@};-  ممنون از نثر شیوا و ترجمه ی تیزبینانتون ولی شما جوری حرف میزنی انگار جای جن رو تیریبونی و جای سهامداراش پشت پرده !

احتراما جوری  جانب داری کنید که فردا پس فردا  از ازل تا ابد Radeon  و از همون سایتا گذاشتین ، ملت گیج نزنن...!

  @};- صد البته که قصد سویی نداشتم داداش ! 

ویرایش شده توسط tohidadme
لینک به دیدگاه
Share on other sites

  • کاربر ویژه

پس الان دیگه باید انویدیا بنچمارک GPU های پاسکال رو در بازی Ashes Of Singularity ارائه میداد؟ نه؟

خوب دیگه انویدیا دیگه بهونه نداره که چرا بنچمارکهاش در بازی های DX12 ضعیف هستن، احتمالا در بازی Hitman و کلا بازی های دیگه ای که با ASYNC Compute طراحی شدن، هم بنچمارکش باید خیلی بهتر از رقیب باشه... :D

لینک به دیدگاه
Share on other sites

سلام بفرمایید ملاحظه کنید

http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks

http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

ببینیم دوستان دو آتیشه ای ام دی دیگه چه بهانه ای دارن به نظر من امیدی به پلاریس هم نیست ایندفعه انویدیا تا دندان مسلحه

ویرایش شده توسط RISC1090
لینک به دیدگاه
Share on other sites

سلام بفرمایید ملاحظه کنید

http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks

http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

ببینیم دوستان دو آتیشه ای ام دی دیگه چه بهانه ای دارن به نظر من امیدی به پلاریس هم نیست ایندفعه انویدیا تا دندان مسلحه

درود .

بحث کردن و کل کل کردن با طرفداران ای ام دی هیچ وقت نتیجه ای نداره دوست من ، یه جستجو کنید ببینید چه قدر تاپیک زده شده در مورد ای ام دی و انویدیا تا خبر در مورد انویدیا بوده لشکر کشی کردن به سمت تاپیک و بحث را نابود کردند آخرشم یا تاپیک بسته شده یا پاک شده .

نرود میخ آهنین بر سنگ حکایت دوستان متعصب است در هر زمینه ای .

لینک به دیدگاه
Share on other sites

درود .

بحث کردن و کل کل کردن با طرفداران ای ام دی هیچ وقت نتیجه ای نداره دوست من ، یه جستجو کنید ببینید چه قدر تاپیک زده شده در مورد ای ام دی و انویدیا تا خبر در مورد انویدیا بوده لشکر کشی کردن به سمت تاپیک و بحث را نابود کردند آخرشم یا تاپیک بسته شده یا پاک شده .

نرود میخ آهنین بر سنگ حکایت دوستان متعصب است در هر زمینه ای .

سلام و درود بنده قصد کل کل ندارم و نداشتم تنها به دوست عزیزی که گفتند بنچ مارک انویدیا ضعیف است توصیه کردم که به این سایت های منبع مراجعه کنند ولی بهرحال صبر میکنم تا آخر ماه می تا کارت های AMD هم معرفی شوند و بنچ مارک ها و نقد ها از دو طرف منتشر شوند
لینک به دیدگاه
Share on other sites

On Extreme settings, the GeForce GTX 1080 scores 7200 points with an average FPS of 74

whereas AMD’s top dog, the Radeon Pro Duo scores 7300 points with an average FPS of 75.

:-? 
 

ویرایش شده توسط ATER
لینک به دیدگاه
Share on other sites

On Extreme settings, the GeForce GTX 1080 scores 7200 points with an average FPS of 74

whereas AMD’s top dog, the Radeon Pro Duo scores 7300 points with an average FPS of 75.

:-? 

 

شما داری یک کارت سینگل GDDR5X رو با قویترین کارت دوال با مموری HBM شرکت AMD مقایسه میکنی ؟!!!!

اگه بخوایم ایراد بگیریم باید از کارت دو هسته ای AMD ایراد گرفته بشه ! و باید بگیم کارت 1080 پیشرفت خوبی داشته .

یه چند تا بنچمارک هم از 3DMark بیاد عالی میشه

ویرایش شده توسط SWAT_MEHDI
لینک به دیدگاه
Share on other sites

خدا رو شکر که * انویدیا نیازی به Async Compute نداره * وگرنه چی میشد !!!

 

attachicon.gif1.jpg

http://forum.lioncomputer.ir/index.php?showtopic=57053&page=3

پست 29

:)

ویرایش شده توسط pezhvak
لینک به دیدگاه
Share on other sites

  • کاربر ویژه

On Extreme settings, the GeForce GTX 1080 scores 7200 points with an average FPS of 74

whereas AMD’s top dog, the Radeon Pro Duo scores 7300 points with an average FPS of 75.

:-? 

 

داداش بازی از sli یا کراس پشتیبانی نمیکنه اون اسکور پرو دو برای تک gpu هست شما اسکورش رو ببین با فیوری ایکس یکی هست

در ضمن یادتون هم باشه نسخه رفرنس 1080 با قیمت فضایی 699 دولار acigar.gif خدمت عزیزان ارائه میشه و نسخه غیر رفرنسش هم 599 دولار 41Wnh.gif (اینم از سیاست ها انودیاییه دیگه )

پولاریس 10 هم که همه میدونن هم نسخه موبایل داره هم دسکتاپ و قیمت نسخه دسکتاپ رو هم همه میدونن طبق گفته amd قیمتش فقط و فقط 299 دولاره

 

پس با این تفاضل قیمت دهشتناک مقایسه اینها رو بزارید برای اومدن نتایج رسمی و بزارید نتایج تقریبا درست رو سایتهای معتبر ارائه بدن 75789_give_rose.gif

لینک به دیدگاه
Share on other sites

ldsqxjx2oewvjpshfct7.png


 


 


احتمال داره این نتایج تراشه های Pascal بدون هماهنگی با AC باشه و فقط پتانسیل پردازشی GTX 1080 در حالت طبیعی باشه و خبری هم از Preemption نباشه!


@};-


ویرایش شده توسط RONIN021
لینک به دیدگاه
Share on other sites

من یکی که دیگه از این بحثا خسته شدم  :D  :D  :D

از میدون بحث و کل کل خداحافظی میکنم  :wacko:

خدا بهتون قوت بده جوونا  :D  :D  :D

لینک به دیدگاه
Share on other sites

دوست من درست متوجه نشدی منظور بنده را ، ببین استفاده از تکنیک پردازش های موازی و ناهمگون یا همان async compute باعث افزایش کارایی در یک پردازشگر گرافیکی میشه ، فذقی نمیکنه که انویدیا و ای ام دی باشه . انویدیا از اول هم به این تکنولوژی نیاز نداشت اما چون حریف از این تکنیک استفاده میکنه تا انویدیا را مغلوب کند چرا انویدیا از این تکنیک استفاده نکنه ؟ این روش یه نوع دوپیگ برای کارت های گرافیک است که باغث افزایش کارایی میشه ، حالا انویدیا هم از این تکنولوژی  استفاده میکنه تا تنها برگ برنده رقیب را ازش بگیره همین .

حرف الان شما دقیقا برخلاف حرف استارتر هست .

استارتر میگه کلا نسل های قبلی نیاز نداشتن نه به خاطر این که AMD توان مقابله نداشت بلکه ساختار gpu به گونه ای بود که اصلا تفاوتی ایجاد نمیکرد .

و در جواب این که چرا قبلا تفاوت ایجاد نمیکرد اما الان ایجاد میکنه نمودارهای مربوط به نسل های متفاوت رو نشون داد و ادعا کرد که این نیاز در واقع در نسل فعلی و از عمد به وجود اومده .

لینک به دیدگاه
Share on other sites

  • کاربر ویژه
ارسال شده در (ویرایش شده)

سر درد شدیدی دارم، نمیتونم خیلی دقیق بشم روی این بنچمارکها، ظاهرا خیلی مدل های مختلفی دارن، ولی واسم جالب هستش، بنچمارک کارتی که 3DMark اسکور بیشتر از 980 Sli داره، تفاوت عملکردش با کارتهای دیگه اینقدر پایینه؟؟ در حد چند فریم؟؟ 6 فریم(حدودا 8 درصد) بیشتر از سری 300 R9 ؟

post-10788-0-07215700-1462809394_thumb.png

 

و در این بنچمارک هم اینقدر ضعیف هستش که سری 200 AMD هم بنچمارک بالاتری داره؟ ظاهرا هر چه مقدار پردازش Async هم بالاتر رفته، پرفورمنس کارت پایینتر اومده:

post-10788-0-99626100-1462809416_thumb.png

البته تا وقتی که اطلاعات بیشتری بیرون نیومده، نمیتونم چیز دیگه ای بگم، فقط از روی این بنچمارکها این برداشت هارو میشه کرد...

ویرایش:

بنچمارک سری 200 و سری 300 در حالت مالتی GPU هستش!!

ویرایش شده توسط tabitha
لینک به دیدگاه
Share on other sites

داداش بازی از sli یا کراس پشتیبانی نمیکنه اون اسکور پرو دو برای تک gpu هست شما اسکورش رو ببین با فیوری ایکس یکی هست

در ضمن یادتون هم باشه نسخه رفرنس 1080 با قیمت فضایی 699 دولار acigar.gif خدمت عزیزان ارائه میشه و نسخه غیر رفرنسش هم 599 دولار 41Wnh.gif (اینم از سیاست ها انودیاییه دیگه )

پولاریس 10 هم که همه میدونن هم نسخه موبایل داره هم دسکتاپ و قیمت نسخه دسکتاپ رو هم همه میدونن طبق گفته amd قیمتش فقط و فقط 299 دولاره

 

پس با این تفاضل قیمت دهشتناک مقایسه اینها رو بزارید برای اومدن نتایج رسمی و بزارید نتایج تقریبا درست رو سایتهای معتبر ارائه بدن 75789_give_rose.gif

جان پس این ویدیو چی می گه ( قند شکن )

 

توی این ویدیو که اس ال ای و کراس کار می کرده 

 

https://www.youtube.com/watch?v=XrpTwUJTVCQ

ویرایش شده توسط alidadashnejad
لینک به دیدگاه
Share on other sites

من یکی که دیگه از این بحثا خسته شدم  :D  :D  :D

از میدون بحث و کل کل خداحافظی میکنم  :wacko:

خدا بهتون قوت بده جوونا  :D  :D  :D

اگه کل کل نباشه بحث ها پر محتوا و آموزنده میشن. الان پر محتوا هستن فقط اگه دوستان یکم بیشتر جانب احترام رو پیش بگیرن حرف نداره این بحث ها.  :clapping:

لینک به دیدگاه
Share on other sites

اگه کل کل نباشه بحث ها پر محتوا و آموزنده میشن. الان پر محتوا هستن فقط اگه دوستان یکم بیشتر جانب احترام رو پیش بگیرن حرف نداره این بحث ها.  :clapping:

دقیقا !

من نمیدونم چ حرف بدی زدم که دوستان منفی دادن !

کافیه یه طرفدار AMD یه حرف حتی غیر مستدل بزنه همه طرفدارا میریزن بی دلیل مثبت بارونش میکنن !

نمیدونم فازشون چیه !

اینجا از حرف درست حمایت نمیشه . دوستان دو دسته شدن . طرفدارای AMD به خودشون مثبت میدن و گاها طرفدارای Nvidia هم به خودشون .

همین چیزا باعث میشه بحث به صورت مفید جلو نره .

برای همه عزیزان آرزوی موفقیت می کنم   @};-

ویرایش شده توسط SWAT_MEHDI
لینک به دیدگاه
Share on other sites

هنوز نه به داره .. نه به بازه... نه به اون صورت بنچمارک متعدد با درایورای آپدیت اومده نه هیچی... ملت شروع کردن به کل کل... ول کنید خواهشا.

بحث رو یکم مفیدتر کنید.. تاپیکو باز کردم میبینم خط و نشون و Bold کردن و نقل قول کردن پر کرده همه جا رو.. :-?

لینک به دیدگاه
Share on other sites

داداش بازی از sli یا کراس پشتیبانی نمیکنه اون اسکور پرو دو برای تک gpu هست شما اسکورش رو ببین با فیوری ایکس یکی هست

در ضمن یادتون هم باشه نسخه رفرنس 1080 با قیمت فضایی 699 دولار acigar.gif خدمت عزیزان ارائه میشه و نسخه غیر رفرنسش هم 599 دولار 41Wnh.gif (اینم از سیاست ها انودیاییه دیگه )

پولاریس 10 هم که همه میدونن هم نسخه موبایل داره هم دسکتاپ و قیمت نسخه دسکتاپ رو هم همه میدونن طبق گفته amd قیمتش فقط و فقط 299 دولاره

 

پس با این تفاضل قیمت دهشتناک مقایسه اینها رو بزارید برای اومدن نتایج رسمی و بزارید نتایج تقریبا درست رو سایتهای معتبر ارائه بدن 75789_give_rose.gif

پولاریس 10 با اسم رمز السمر و با کد شناسایی 67DF:C4 احتمالا 490X اگر پرچمدار باشه(بخاطر تست کله گنده ها)، فعلا حرفی برای گفتن نداشته تو بنچمارک هایی ک VIDEOCARDZ گذاشته. معلومه خب قیمت هارو میاره پایین در مقابل کارایی. طی دو ویدیوی پخش شده بنچمارک دو بازی ک منبعی نداره 1080 تونسته با اختلاف 30 تا 40 فریم بیشتر 980ti رو شکست بده! amd برای پولاریس 10 کارت 980ti رو هدف قرار داده بود با کارایی کمی بیشتر از 980ti و قیمتی معادل نصفش. خب متوجه شدیم ک 1070 به راحتی تایتان ایکس رو قاطی باقالیا کرد در روز معرفی 1080 ک دیگه جای خود دارد ... طی بنچمارک های ویدیو کاردز 67DF حتی نتونسته تایتان ایکس رو بگیره پس قضیه از این ور هم یه سر داره ...تقریبا میشه فعلا گفت 67DF توانش بیت تایتان ایکس و 980ti هست هرچند هنوز زوده برای این حرف...

ایشالا علمای amd سکوت رو بشکنن و یه واکنشی نشون بدن نسبت به عرضه پاسکال ^_^

اون نسخه 700 دلاری هم همون کارت رفرنس با قیافه جدید هست ک اگر حتی منو شما نخریم بالاخره فروشش رو میکنه.

 

لینک به دیدگاه
Share on other sites

مهمان
This topic is now closed to further replies.
 اشتراک گذاری

×
×
  • اضافه کردن...