رفتن به مطلب

Trickster

کاربر سایت
  • پست

    1142
  • تاریخ عضویت

  • روز های برد

    127
  • بازخورد

    100%

تمامی مطالب نوشته شده توسط Trickster

  1. کمپانی کره ای SK Hynix ابتدای همین ماه در سکوت نسل دوم حافظه های پشته ای HBM را به کاتالوگ های محصولات عمومی اش اضافه کرد که می تواند به معنی آغاز قریب الوقوع تولید انبوه این محصولات باشد. این کمپانی در ابتدا دو نوع از ماژول های حافظه جدید را با حجم یکسان اما با نرخ انتقال اطلاعات متفاوت برای کارت گرافیک ها، شتاب دهنده های محاسبات حرفه ای و دیگر کاربردها ارائه می کند و به مرور زمان استفاده از خانواده حافظه های HBM2 فراگیرتر خواهد شد. SK Hynix قصد دارد در وهله اول پشته های چهار لایه ای (منظور از پشته یکی از حافظه‌ های چندلایه است که به آن KGSD یا Known Good Stack Die نیز گفته می‌شود) با حجم 4 گیگابایت HBM2 را بر روی دستگاه هایی با 8 گیگابیت DRAM به مشتریان خود عرضه کند. این حافظه ها دارای باس 1024 بیتی و همچنین نرخ تبادل اطلاعات 1.6GT/s (در مدل H5VR32ESM4H-12C) و 2.0GT/s (در مدل H5VR32ESM4H-20C) با حداکثر پهنای باند 204GB/s و 256GB/s در هر پشته خواهند بود. در ابتدای همین سال یکی از سخنگوهای SK Hynix در طی مصاحبه ای درباره برنامه های این کمپانی برای تولید انبوه پشته های 4 گیگابایتی HBM2 در ربع سوم سال خبر داده بود که اضافه شدن لیست این دستگاه ها به کاتالوگ های محصولات SK Hynix این اطلاعات را تایید می کنند. البته این نکته را نیز در نظر بگیرید که معمولاً کمپانی های ساخت حافظه های الکترونیکی هنگامی تولید انبوه محصولاتشان را اعلان می کنند که آماده تحویل اولین محموله های DRAM به مشتریانشان باشند بنابرابن این احتمال وجود دارد که SK Hynix از هم اکنون در حال تولید پشته های HBM2 باشد. حافظه های HBM2 این قابلیت را دارند که 2، 4 و یا 8 دستگاه DRAM (پشته های 2Hi, 4Hi, 8Hi تایی) را بر روی هر تراشه KGSD به صورت داخلی و از طریق ساختار درون سیلیکونی (TSV) به یکدیگر متصل سازند. هر DRAM دارای دو کانال 128 بیتی می باشد که با بهره گیری از واسط DDR با معماری سطح دوم می تواند در فرکانس یا حتی حالت منحصر بفرد خود فعالیت کند. کمپانی SK Hynix برای تولید حافظه های HBM2 از روند ساخت 21 نانومتری استفاده خواهد کرد و در نهایت نیز قصد دارد پشته های 2 و 8 گیگابایتی را برای کاربردهای مختلف عرضه کند. تمام حافظه های HBM2 تولیدی این کمپانی دارای ولتاژ ورودی و خروجی 1.2 ولت و ابعاد 7.75x11.87 میلی متر (91.99 میلیمتر مربع) خواهند بود. کمپانی سامسونگ در ابتدای امسال تولید انبوه پشته های 4 گیگابایتی HBM2 را با نرخ تبادل اطلاعات 2GT/s آغاز کرده بود که کمپانی nVIDIA نیز در پردازشگرهای گرافیکی GP100 از آن استفاده خواهد کرد. اولین کارت با برند nVIDIA که از حافظه های HBM2 برای آن استفاده خواهد شد کارت TESLA P100 برای محاسبات پیشرفته با 16 گیگابایت حافظه HBM2 و پهنای باند 720GB/s خواهد بود. سال گذشته کمپانی SK Hynix عنوان کرده بود که در حال همکاری با 10 کمپانی دیگر بر روی پروژه های مختلف (مانند مدارهای مجتمع با کاربرد خاص یا به اختصار ASIC، پردازنده های x86، استاندارهای کاربرد خاص هر محصول یا ASSP و آرایه دریچه‌ای برنامه‌ پذیر میدانی یا FPGA) برای استفاده از حافظه های HBM می باشد که نشان از علاقه مندی زیاد برای بهره گیری از DRAMهای با پهنای باند بالا و چند لایه ای دارد. با این حال تا کنون تنها این AMD و nVIDIA بوده اند که واقعاً محصولاتی را بر پایه HBM و HBM2 معرفی کرده اند. با به میان آمدن نام HBM باید خاطر نشان کنیم که SK Hynix این پشته ها را از فهرست کاتالوگ خود حذف کرده است اما اطلاعاتی از اینکه این کمپانی همچنان به تأمین این نوع حافظه ها برای شرکای خود ادامه می دهد یا خیر، در دست نیست اما با توجه به اینکه در حال حاضر محصولات زیادی از HBM1 استفاده نمی کنند احتمالاً تأمین این مقدار اندک نباید مسئله مهمی باشد. حال که حافظه های HBM2 در پیش رو هستند، عملاً می توان حدس زد در آینده شاهد محصولات زیادی با حافظه های HBM1 نخواهیم بود. Source: AnandTech
  2. نتایج بنچمارک کارت گرافیک AMD Radeon RX 470 امروز منتشر شد. در ادامه با بنچمارکهایی از سایت Tom's Hardware به بررسی این کارت گرافیک می پردازیم: این شما و این هم Radeon RX 470: از لحاظ معماری چیز جدیدی در پردازنده گرافیکی "Ellesmere" وجود ندارد. این همان پردازنده گرافیکی 5.7 میلیارد ترانزیستوری معرفی شده با Radeon RX 480 است که توسط GlobalFoundries با روند ساخت 16 نانومتری FinFET تولید می شود با این تفاوت که AMD با غیرفعال کردن بخشی از واحدهای هسته، تعداد آنها را از 36 به 32 کاهش داده که منجر به تقلیل رشته های پردازشی از 2304 به 2048 می شود. سطح Die پردازنده گرافیکی 232 میلی متر مربع می باشد. شات GPU-Z از مدل Asus RX 470 Gaming برای بررسی این کارت به سراغ مدل سفارشی Asus RX 470 Gaming می رویم. ابتدا نگاهی به کولر و طراحی این کارت می اندازیم: نحوه عملکرد در عناوین مختلف: بنچمارک های سایت Tom's Hardware تماماً در رزولیشن 1920x1080 انجام گرفته است. ظاهراً این سایت بنا به دلایل مشخص و بر خلاف دیگر سایت ها نیازی به بررسی Radeon RX 470 در رزولیشن های بالاتر ندیده است. بنچمارک عناوین Ashes of the Singularity، Battlefield 4 و Doom: بنچمارک عناوین Hitman، Grand Theft Auto V و Project CARS: بنچمارک عناوین The Division، Rise of The Tomb Raider و The Witcher III: میزان مصرف این کارت و مقایسه آن با دیگر کارت گرافیک ها: در حالت بیکاری: در حالت گیمینگ: تست استرس Furmark: بررسی فرکانس و دما: بررسی فرکانس در تست استرس Furmark و فرکانس بوست در تست Doom: بررسی ولتاژ هسته در همین تست ها: دما و دور فن: و در نهایت نیز بررسی دمای قسمت های مختلف این کارت با FLIR: طبق گزارش سایت Tom's Hardware کارت گرافیک سفارشی Asus RX 470 Gaming در تست ها به صورت میانگین %13 از Radeon RX 480 ضعیفتر بوده است. =========================================================== اضافات: نتایج اورکلاک کارت گرافیک سفارشی Asus RX 470 Gaming توسط سایت TechPowerUp: بیشترین اورکلاک ممکن در این نمونه توسط این سایت 1910 مگاهرتز برای مموری (%16 اورکلاک) و 1360 مگاهرتز برای فرکانس هسته (%7 اورکلاک) بوده است. در جدول زیر می توانید بیشترین میزان اورکلاک نسبت به دیگر نمونه های کارت گرافیک Radeon RX 480 مقایسه کنید: میزان افزایش عملکرد واقعی پس از اورکلاک در بازی Battlefield 3 حدود %6.5 و در رزولیشن 2K بوده است: این سایت همچنین قیمت مدل رفرنس کارت گرافیک Radeon RX 470 را 180 دلار و قیمت مدل Asus RX 470 Gaming را 210 دلار عنوان کرده است.
  3. درود و تشکر از همه عزیزان @};- :x اشتباه نوشته دوست عزیز. مشخصات سخت افزاری TITAN X خیلی بیشتر از 2 برابر GTX 1060 هست. از لحاظ قدرت هم فکر نکنم 2تا GTX 1060 بتونه به TITAN X برسه. مگر 3تا... - با اینکه یکی دوتا سایت مثل TechPowerUp و VideoCardz هم علت عدم پشتیبانی GTX 1060 از SLI رو همین دلیل ذکر کردن، با اینحال من مخالفم. من قبلاً نظر شخصیمو در این مورد در این پست گفتم و اگر قسمت "A First: No SLI For Upper-Mainstream" بررسی کارت GTX 1060 سایت Tom's Hardware رو هم بخونید، اونم کم و بیش همین نظرات منو نوشته. اگر تنها دلیل انویدیا برای حذف SLI در GTX 1060 همین بوده، پس باید به فکر GTX 1070 هم بوده باشه! دوتا GTX 1070 با قیمت 900 دلار اگر به خوبی Utilize بشن (چون بازار هدف TITAN X محاسبات پیشرفته هست، اکثر نرم افزارهای پیش رفته از Multi GPU به خوبی پشتیبانی می کنن) به راحتی می تونن TITAN X رو پشت سر بگذارن. کسی که حتی به فکر خرید یک TITAN X میوفته حتماً پول براش مسئله ای نیست و شما مطمئن باش کسی هم که پول براش مهم نیست یا با سیستمش کسب درآمد میکنه نمیاد اسلات های مادربردشو با دو یا چندتا کارت میان رده پر کنه، میره مستقیم همون TITAN X رو میخره و جا رو برای حتی TITAN Xهای بیشتر باز میگذاره. درود بر استاد خودم @};- ;) :D درود @};- نظر لطفته ایمان جان @};- با این قیمت حقیقتش انتظار من هم بیشتر بود. تقصیر منم نیست، تقصیر GTX 1080ه... :D ==================================================================== اینم واتر بلاک های EK برای TITAN X
  4. @};- @};- @};- @};- :D :D :D Fury X رو تو The Witcher III و The Division (بازی باندل 980، همون موقع هم Hitman برای 390X باندل شده بود) نگاه کن. رقیب Fury X چی بود؟ :D ​----------------------------------------------------------------------------------------------------------------------------------------------------------------------------- جالبه Radeon Pro Duo هم در اختیار ریویورها قرار نگرفته بود و بی نام و نشان موند اما درست در روز عرضه TITAN X این سایت بررسی هاشو گذاشت! ​و یک نکته دیگه هم اینکه در مقاله اصلی چند بار اشاره کرده بود که "خیلی به کارایی در برابر قیمت توجه نکنید" ولی برام سوال شد که چرا توجه نکنیم؟ افزایش %40 هسته های کودا و %50 پهنای باند مموری و فقط %29 قدرت بیشتر اونوقت %70 گرونتر؟ :-? هر چند که خیلی هم مهم نیست چون حتی اگر مجانی هم بود باز هم از توان مالی من خارج بود :D
  5. اگر شما دستورالعمل ساخت یک نوع سس تند فوق العاده دارید که در سراسر دنیا فروش زیادی دارد یا اگر در کارخانه پدرزن خود شریک هستید یا به هر دلیل دیگری جزو افرادی هستید که یک خانه ساحلی و یک ماشین بنتلی دارند و پول هیچ وقت موضوع مهمی برایتان نبوده، پس انویدیا هم برای سیستم گیمینگ شما یک کارت گرافیک قدرتمند دارد: TITAN X. این کارت گرافیک بر اساس پردازنده گرافیکی GP102 ساخته شده و دارای 3584 هسته کودا، 12 گیگابایت حافظه گرافیکی GDDR5X با پهنای باند 384 بیتی می باشد که با قیمت 1200 دلار عرضه می شود. قبل از هرگونه قضاوت ابتدا یک نکته را در نظر داشته باشید: کسانی که همیشه بهترین را در بین بهترین ها می خرند واهمه ای از این قیمت های رعب آور ندارن و آنهایی هم که واقعاً با کامپیوترهای شخصی خود کسب درآمد می کنند با خوشحالی حاضرند هر بهایی را پرداخت کنند تا درآمدشان بیشتر شود. با این حال آیا TITAN X ارزش %70 قیمت بیشتر در برابر GTX 1080 برای %40 افزایش هسته های کودا و %50 پهنای باند مموری را دارد؟ آیا TITAN X این قدرت را دارد میزان فریم ریت دریافتی در 4K را چنان بهبود ببخشد تا بتوان GTX 1080 را برای گیمینگ با بالاترین سطح کیفیت ناکافی دانست؟ فقط یک راه وجود دارد... GP102: همان GP104 منتها بزرگتر انویدیا با عرضه GTX 1080 پردازنده گرافیکی GP104 را معرفی کرد که در واقع جانشین GM204 قدرت بخش کارت گرافیک GTX 980 است اما چون معماری پاسکال با روند ساخت 16 نانومتری FinFET و مموری های سریعتر GDDR5X همزمان شد، GTX 1080 توانست به راحتی با میانگین %30 فریم ریت بیشتر کارت گرافیک های GTX 980TI و TITAN X با پردازنده های GM200 را پشت سر بگذارد. اکنون انویدیا با عرضه TITAN X پردازنده گرافیکی GP102 را معرفی کرده که از لحاظ معماری مشابه GP104 است اما کمی بزرگتر. 4 خوشه پردازشگرهای گرافیکی به 6 عدد و 20 رشته چندپردازشگر به 30 عدد افزایش پیدا کرده اند. به لطف وجود 128 هسته کودای FP32 در هر رشته چندپردازشگر، هم اکنون GP102 قادر است بیش از 3840 واحد قابل برنامه ریزی را در خود جای دهد. GP102 شدیداً پردازنده پیچیده ای است و به همین منظور انویدیا واحد از رشته های چندپردازشی را در TITAN X غیرفعال کرده و تعداد هسته های کودا را به 3584 عدد کاهش داده است. کارت گرافیکی TITAN X دارای فرکانس پایه 1417 مگاهرتز و فرکانس بوست 1531 مگاهرتز می باشد با نرخ محاسباتی FP32 بیش از 10 ترافلاپس که تقریباً %23 بیشتر از GTX 1080 است. دیگر مشخصات TITAN X به این صورت می باشد: غرق در نگاه خدایان: نمای TITAN X از خیلی جهات شبیه GTX 1080 می باشد با این تفاوت که رنگ آن تماماً سیاه و هیت سینک آن آلومینیوم می باشد: از نمای کنار تنها تفاوت وجود دو کاکتور 6 و پینی برای تامین مصرف 250 وات این کارت است. غیر از آن همچنان می توان شاهد لوگوی GEFORCE GTX بود که طبق گفته انویدیا جزوی از طراحی استاندارد کارت است و البته وجود یک جفت رابط SLI: در پشت کارت بک پلیت دو تکه کارت وجود دارد و در صورتی که می خواستید از ترکیب SLI استفاده کنید می توانید قسمت عقبی آنرا برای تهویه بهتر جدا کنید: GP102 از همان کنترلرهای تصویر GP104 بهره می برد پس دیدن 3 عدد خروجی DisplayPort 1.4 به همراه 1 عدد خروجی HDMI 2.0b و همچنین 1 عدد خروجی Dual-Link DVI D نباید برایتان غافلگیر کننده باشد: احتیاجی به اینکه TITAN X را یک کارت Founders Edition بخوانید وجود ندارد زیرا انویدیا این کارت را فقط از طریق سایت خود یا استفاده در سیستم های از پیش آماده به فروش خواهد رساند و همین طراحی رفرنس با تمام ضعف ها و قوت هایش تنها گزینه موجود خواهد بود: برای بررسی عملکرد کولر این کارت و همچنین مقایسه آن با کولر GTX 1080 از بررسی 10 بار اجرای بنچمارک Metro: Last Light Redux به صورت ادواری استفاده شد که نتایج آنرا می توانید در زیر مشاهده کنید: همانطور که مشاهده کردید، در این تست استرس گیمینگ فرکانس کارت به هیچ وجه کمتر از 1418 مگاهرتز، یعنی فرکانس پایه نیامده. میانگین فرکانس نیز 1587 مگاهرتز یعنی بالاتر از فرکانس بوست معمول 1531 مگاهرتز می باشد. البته برای رسیدن به این فرکانس بهایی نیز وجود دارد. GP102 اکثر مواقع در دمایی بین 84-83 درجه و بالاتر از دمای 82 درجه ای GTX 1080 فعالیت می کند اما هنوز هم با آستانه دمای مجاز 94 درجه فاصله زیادی دارد. سرعت فن TITAN X تقریباً به 2500 دور در دقیقه میرسد در حالیکه سرعت فن GTX 1080 حدود 2200 دور در دقیقه است. با برداشتن کامل کولر می توان به خوبی متوجه تفاوت های برد TITAN X با GTX 1080 شد. در ابتدا وجود 12 محل برای مموری های GDDR5X به چشم می آید. فازبندی مدار تغذیه از 1+5 در GTX 1080 به 2+7 تغییر داشته و البته همانطور که قبلاً اشاره شد وجود یک کاکتور 6 پین بیشتر. خود GPU نسبت به GP104 بزرگتر بوده و سطح آن به 471 میلی متر مربع میرسد اما همچنان در مقایسه با نسل های قبلی همچون هیولایی به نظر می رسد، در واقع پردازنده GM200 قرار گرفته در قلب GTX 98TI و TITAN X نسل قبل دارای سطح 600 میلی متر مربعی بود. آیا می توان یک تایتان را به چالش کشید؟ بدون شک قویترین و برترین محصول انویدیا بر روی بهترین پلتفرم ها قرار خواهد گرفت اما ما تصمیم گرفتیم برای تست همچنان از پردازنده Core i7 6700K بر روی یک مادربرد MSI Z170 Gaming 7 و همچنین 16 گیگابایت رم G.Skill با فرکانس 3000 مگاهرتز استفاده کنیم. دیگر سخت افزارهای استفاده شده یک عدد SSD ساخت Crucial مدل MX200، کولر Nocuta NH-12S برای پردازنده و منبع تغذیه Be Quiet! Dark Power Pro 10 با توان 850 وات، می باشد. تا هنگامی که بحث رقابت در میان باشد، TITAN X هیچ رقیبی نخواهد داشت با این وجود می خواهیم نتایج آنرا با کارت گرافیک های GTX 1080 و GTX 1070 و GTX TITAN X نسل قبل و GTX 980TI از انویدیا مقایسه کنیم و صد البته از کمپانی رقیب کارت های R9 Fury X و Fury حاضر خواهند بود. در عناوین تست شده، بازی Doom با رابط Vulkan و Hitman، Ashes of the Singularity و Rise of the Tomb Raider با رابط DirectX 12 و در نهایت نیز بازی های Battlefield 4، Grand Theft Auto V، Project CARS، The Division و The Witcher III با رابط DirectX 11 تست خواهند شد. تست عملکرد عناوین Ashes of the Singularity، Battlefield 4 و Doom تست عملکرد عناوین Hitman، Grand Theft Auto V و Project CARS تست عملکرد عناوین The Division، Rise of the Tomb Raider و The Witcher III نتیجه گیری: با توجه به اینکه هنوز بررسی این کارت تکمیل نشده، نمی توان فعلاً نتیجه گیری کرد اما در حال حاضر دید روشنی نسبت به عملکرد TITAN X داریم. در رزولیشن 3840x2160 به طور میانگین این کارت حدود %29 سریعتر از GTX 1080 است که حتی خود GTX 1080 نیز در همین رزولیشن %34 از GTX 980TI سریعتر است. در حالیکه GTX 1080 Founders Edition با قیمت 700 دلار عرضه می شود، شما در ازای این مقدار قدرت بیشتر TITAN X حدود %70 بهای بیشتری پرداخت می کنید. با این حال محاسبه ارزش را فراموش کنید. این کلمه اینجا جایی ندارد. انویدیا انتظار دارد بیشترین تعداد از این کارت را در بازار Deep Learning به فروش برساند اما شکی نیست که GP102 و GP104 که مناسب گیمینگ نیز هست، دارای شالوده ای مشترک هستند. با وجود اینکه 1200 دلار مبلغ قابل توجهی است و اینکه ما قبلاً SSDها و پردازنده های گران قیمت تری را هم تست کرده ایم، یک کارت گرافیک تاثیر خیلی بیشتری نسبت به دیگر قطعات سخت افزاری بر روی تجربه شما در بازی ها خواهد داشت. اگر میتوانید یک TITAN X بخرید، که اکنون می دانید عملکرد آن عالی است و اگر همچین بودجه ای ندارید، AMD و انویدیا هم اکنون کارت گرافیک های 14 و 16 نانومتری خود را با عملکردی عالی در برابر قیمت پرداختی روانه بازار کرده اند. می توانید در میان آنها به دنبال گمشده خود بگردید! Source+More Info: Tom's Hardware
  6. درود @};- امتیاز 19536 شما Graphics Score هست. امتیاز 17499 سایت Guru3D امتیاز کلی سیستم هست که مال شما 16108 هست. :) @};-
  7. Trickster

    ♫ همین الان چی گوش میدی ؟ ♫

    درود @};- به یاد این قطعه از André Rieu افتادم: Poliushko Polie ------------------------------------------------------------------ خودم داشتم Brennisteinn از Sigur Rós گوش می کردم. (به طرز عجیبی بهم آرامش میده!) سبک: Post Rock تاریخ عرضه: 25 مارس 2013
  8. ​درود بر آقای حسن زاده @};- خدمت شما: (آموزش) افزایش سرعت اینترنت با ترکیب چند اتصال اینترنت مختلف و چگونه با ترکیب چند اتصال اینترنت مختلف، سرعت اینترنت خود را بالا ببریم؟ ​تاپیک جامع دیگری هم بود که متأسفانه حذف شد.
  9. درود @};- من با فرکانس های پیش فرض کارت گرافیکم (MSI R9 390) تونستم در تست Fire Strike امتیاز گرافیک 13010 و در تست Time Spy هم امتیاز 3982 بگیرم. با اورکلاک کارت گرافیک هم تونستم امتیاز Fire Strike رو به 14105 و امتیاز Time Spy رو هم به 4304 افزایش بدم. ----------------------------------------------------------------------------- بعد از چندین و چند بار تست کارت با بنچمارک Time Spy باید بگم دستاوردهای DirectX 12 واقعاً عالیه! همونطور که در تصویر بالا مشاهده می کنید، با اینکه میزان پردازش های انجام شده بر هر فریم به طور قابل توجهی در DirectX 12 افزایش پیدا میکنه، همچنان شاهد عملکرد عالی کارت ها در این API هستیم. این افزایش باعث خلق محیط هایی بسیار شلوغ و غنی از اجسام شده. نورپردازی بسیار بهتر شده و تاثیری هم که اجسام از این منابع نوری و همچنین از بازتاب اجسام اطرافشون میپذیرن فوق العاده چشم نواز هست. نکته دیگری هم که متوجه شدم بهینگی بسیار بیشتر DirectX 12 نسبت به DirectX 11 در بخش مصرف انرژی هست. در هنگام اورکلاک کارت گرافیک، مصرف انرژی و دما به طرز چشم گیری نسبت به DirectX 11 بهتر شده که باعث افزایش قابلیت اورکلاک پذیری بیشتر در ولتاژ یکسان میشه به طوریکه با همون ولتاژ یکسان نسبت به تست Fire Strike تونستم فرکانس کارت رو کمی بالاتر ببرم و امتیاز تست Time Spy رو به 4351 افزایش بدم. (که البته هنوز هم جا برای اوکلاک بیشتر داشت ولی من تست نکردم)
  10. تشکر مجتبی جان @};- همین الان میتونید بنچمارک Time Spy رو از این لینک دانلود کنید. همچنین میتونید پکیج بنچمارک 3DMark شامل 8 آیتم (همراه با بنچمارک Time Spy) رو از استیم با تخفیف %60 و فقط به قیمت 10 دلار خریداری کنید.
  11. میزان افزایش کارایی برای RX 480 تقریباً %10.8 و برای GTX 1070 تقریباً %5.4 هست. ------------------------------------------------------------------------------------------------------------------------------------- همین الان میتونید بنچمارک Time Spy رو از این لینک دانلود کنید. همچنین میتونید پکیج بنچمارک 3DMark شامل 8 آیتم (همراه با بنچمارک Time Spy) رو از استیم با تخفیف %60 و فقط به قیمت 10 دلار خریداری کنید.
  12. اگر منظور شما فقط بحث فریم تایم باشه، ابتدا یک نگاه به جدول زیر بندازید (مطمئنم تا به حال این جدول رو دیدید، فقط جهت یادآوری عرض می کنم): 480 با ولکان در رزولیشن 1440p تقریباً 74 فریم گرفته با فریم تایم 13.6 و 1080 هم تقریباً 115 فریم گرفته با فریم تایم 8.7 که با توجه به فریم ریتی که 1080 و 480 گرفتن به نظر من که نتایج کاملاً طبیعی هست. اگر هم منظور شما Frame Experience هست که به این نمونه توجه کنید: که باز هم میبینید مورد خاصی در مورد استاترها مشاهده نمیشه! ضمن اینکه این بازی Project CARS هست و نمیدونم چقدر به نتایج بنچمارک این بازی دقت کردین یا اصلاً خودتون وقت داشتید این بازی رو با کارت های AMD تجربه کنید یا خیر، اما بهتون قول میدم وقتی پای مشکل AMD در GameWorks به میان میاد در هیچ بازی دیگری بیشتر از این بازی این مشکل به چشم نخواهد آمد! البته قبول دارم ممکنه کارت های AMD در یک عنوان خاصی دچار استاترهای شدید بشن اما مگر کارت های انویدیا همچین مشکلی ندارن؟ استاترهای 1080 رو در عنوان Warhammer رو که مطمئنم دیدید. و اما در مورد این بازی های جیره خور! تا جایی که من اطلاع دارم 4 تا از این بازی ها Forza و Quantum Break و Killer Instincts و GoW: UE هستن. از کی تا حالا مایکروسافت جیره خور AMD شده؟ یا شما که فرمودین از 6 بازی 5 تاش، آیا منظور شما از بازی ششم این بود:
  13. نه میلاد جان، یه بار دیگه با دقت نگاه کن. بعد از آپدیت 980TI افت کارایی داشته Fury X افزایش، در نهایت هم بعد از آپدیت در همه سطوح تنظیمات Fury X بالاتر بوده. ===================================================================== اینم یه خبر دیگه: Battlefield TV Series Optioned By Paramount Television کلاً همینطور که در این فروم هر چیزی پتانسیل بحث کردن رو داره، در اونطرف آب هم هر چیزی قابلیت تبدیل به سریال رو داره! :D
  14. @};- @};- @};- ​تشکر مجدد بابت همکاری دوستان عزیز @};- @};- @};- درود @};- ​خیلی متشکرم که نظر منو به عنوان یکی از کوچکترین اعضای لیون میپرسی در حالیکه خود شما استاد بنده هستی اما اگر لطف کنی و منو از این مورد معاف کنی ممنون میشم. اظهار نظر یک کاربر که به عنوان هوادار AMD شناخته شده در مورد کارت های انویدیا؟ بوی خون میاد :D @};- ترجیح میدم در مورد بازار و عملکرد این کارت سکوت کنم ^_^ ​فقط در مورد حذف SLI از این کارت میتونم بگم که اگر قرار باشه لیستی از 5 دلیلی که چرا انویدیا این کار رو انجام داده تهیه کنم، مطمئناً دلیل "خدشه به بازار فروش GTX 1070" رو رده هفتم مینویسم! :D ​مشخصاً Multi GPU چیز جدیدی نیست. به عنوان مثال آیا سال قبل عرضه GTX 960 با قابلیت پشتیبانی از SLI به بازار GTX 970 یا GTX 980 خدشه ای وارد کرد؟ یا همین امسال، آیا پشتیبانی GTX 1070 از SLI موجب فروش کمتر GTX 1080 شده؟ هر چیزی جای خودش. حقیقتش هضم این ایده برای من خیلی سخته. ​به نظر من انویدیا بررسی کرده و به این نتیجه رسیده کاربرای خیلی کمی به Multi GPU اهمیت میدن، بازی های کمی هستن که این ویژگی رو به خوبی پشتیبانی کنن و DirectX 12 هم هنوز به اون بلوغ کافی نرسیده که وعده هایی رو که داده بودن عملی کنه، بهینه سازی درایور برای این امر وقت و تلاش بیشتری رو میطلبه و همچنین در نهایت اینکه همونطور که در متن هم اشاره شد حتماً میخواسته با حذف این مورد در PCB این کارت باعث پیچیدگی کمتر طراحی و در نهایت هزینه ساخت کمتر برای اون بشه چون همینطور که می دونی این کمپانی همین الانش هم بودجه هنگفتی رو صرف این معماری کرده. همنجا لازمه اشاره کنم که دوستان اشتباه برداشت نکنن. منظورم این نیست کل سرمایشو ریخته در این بخش و اگر این سری کارت ها خوب نفروشن انویدیا بدبخت میشه و این حرفا... منظورم اینه که بودجه اختصاصی به این بخش نسبت به سال های قبل به طور نامتعارفی افزایش داشته و اصلاً عاقلانه نبوده که بیشتر از این بودجه صرف کنن که نشان از درایت​ تحلیلگران این شرکت داره. ​به نظر من سال بعد همزمان با عرضه ولتا که باز هم طبق اشاره مقاله با کمتر شدن هزینه ها در تمامی بخش ها همراه خواهد بود به علاوه اینکه DirectX 12 تا اون زمان باید به بلوغ کافی رسیده باشه و بازی های بیشتری با این API عرضه شده باشه، بعید نیست مجدداً شاهد بازگشت پشتیبانی از Multi GPU به این کلاس از کارت گرافیک های انویدیا باشیم. به هر حال فکر نکنم افراد زیادی دلتنگ این ویژگی بشن. نه گیمری که دنبال کارتی با بودجه محدود میگرده هیچ وقت به فکر SLI این کارت میوفته و نه علاقه مندان به رکورد هیچ وقت حاضر خواهند شد با چندتا از این کارت رکورد بزنن! پس به نظر من حذف این ویژگی برای این رده ضرری به بار نخواهد آورد.
  15. NVIDIA GeForce GTX 1060 Doesn't Support SLI? Reference PCB Difficult to Mod ============================================================================================================= ای خدا خیرت بده! خب من هم دارم همینو به این دوستمون میگم قبول نمیکنه! در همین عکسی که در این پست گذاشتم به وضوح نوشته: کانکتور تغذیه 6 پین جزئی از PCB نیست!
  16. همونطور که گفتم کانکتور برق بر روی برد قرار نداره: احتمالاً به قول شما با سه راهی نقطه اتصال رو جابه جا کردن :D
  17. نمی دونم، شاید من اشتباه می کنم! ولی حقیقتش هنوز شک دارم! فعلاً صبر می کنم تا تصاویر بیشتری از بردش بیاد. تشکر @};-
  18. نه عزیز، به این تصویر دقت کن: برد همونجا که در عکس از کنار دورشو علامت زدم تموم میشه. اون اضافه کولره که زیرش بک پلیت داره، خود کارت بک پلیت نداره!
  19. نمیدونم چرا در جدول بالا به مدل 3 گیگ اشاره نکرده؟!!! :-? ============================================================= در ضمن یه سوال: من اشتباه می کنم یا واقعاً کانکتور برق روی بُرد نیست! :-?
  20. تشکر فراوان بابت همکاری دوستان @};- @};- @};- بله، ظاهراً در عکس های قرار گرفته جدید جایی برای پل SLI وجود نداره اما بحث این مقاله بیشتر بررسی قیمت تمام شده سری جدید کارت های گرافیک به بهانه عرضه GTX 1060 بود بنابراین فکر کنم نیازی به اشاره به این موضوع نبوده چون به هر حال این نکته در مورد GTX 1070 و GTX 1080 صدق نمی کنه. این موضوع و تاثیرش هم مطمئناً در روزهای نزدیک در تاپیک های خودش مورد بررسی قرار خواهد گرفت ^_^ @};- =========================================================== :GeForce GTX 1060 3DMark Results =========================================================== :GeForce GTX 1060 vs. Radeon RX 480 Specs
  21. نسل جدید پردازنده های گرافیکی میان رده دسکتاپ کمپانی انویدیا با اسم GeForce GTX 1060 احتمالاً در همین ماه عرضه خواهند شد. با اینکه محدوده زمانی عرضه عمومی مشخص شده بود اما همچنان اطلاعات دقیقی از مشخصات و میزان عملکرد مورد انتظار این کارت در دست نبود. به لطف اطلاعات درز کرده جدید توسط سایت videocardz.com که به نظر میرسد این اسلایدها توسط انویدیا ارائه شده باشند، اکنون میتوانیم مشخصات کلیدی این کارت را بهتر بررسی کنیم. پاسکال کوچک: طبق این اطلاعات درز کرده، کارت گرافیک GTX 1060 دارای 1280 هسته CUDA یعنی دقیقاً نصف تعداد هسته های CUDAی تعبیه شده در کارت گرافیک پرچم دار این کمپانی یعنی GTX 1080 می باشد. فرکانس بوست این کارت 1.7GHz و دارای 6 گیگابایت حافظه GDDR5 با سرعت 8Gbps خواهد بود. اگر Memory Bus این کارت را 192bit در نظر بگیریم، طبق محاسبات سایت videocardz پهنای باند مموری در دسترس پردازنده گرافیکی حدود 192Gbps خواهد بود یا به عبارتی نزدیک به %60 پهنای باند مموری GeForce GTX 1080. در یکی از اسلایدهای نمایش داده شده در سایت videocardz می توان عبارت "قدرت GTX 980 برای تمام گیمرها" را مشاهده کرد که نتیجتاً به معناست که از لحاظ کارایی میتوان GTX 1060 را با کارت گرافیک پرچم دار انویدیا تا پایان سال 2014 یعنی GTX 980 همتراز دانست. برای تغذیه این کارت، یک کانکتور 6 پین برای تامین نیاز 120 واتی آن در نظر گرفته شده است که بدین معناست که این کارت بسیار از GTX 980 کارآمدتر است (که میزان مصرف آن 165 وات و نیازمند دو کانکتور 6 پین بود) و خبر بسیار خوبی برای کسانی که دارای منبع تغذیه تقریباً ضعیفی در سیستم خود هستند و قصد ارتقاء به این کارت را دارند، محسوب می شود. از لحاظ کانکتورهای صفحه نمایش نیز طبق این تصاویر درز کرده می توان به سه عدد خروجی DisplayPort 1.4، یک عدد خروجی HDMI 2.0B و همچنین یک کانکتور Dual Link DVI جهت اطمینان خاطر برای سازگاری با صفحه نمایش های مختلف اشاره کرد. GTX 980 با هزینه کمتر: در صورتی که GTX 1060 بتواند عملکردی نزدیک به GTX 980 را در محدوده قیمتی $299 ارائه دهد می تواند موفقیت چشمگیری در بازار به دست بیاورد. البته باید خاطر نشان کرد که هزینه تولید GTX 1060 نسبت به GTX 970 و GTX 980 کمتر خواهد بود بنابراین برای انویدیا عرضه این کارت به بازار از فروش کارت گرافیک های تخفیف خورده GTX 980 بسیار سودآورتر خواهد بود. اجازه بدهید این مورد را کمی بیشتر بررسی کنیم: کارت گرافیک GTX 980 بر اساس فناوری 28 نانومتری TSMC ساخته شده بود که مساحتی حدود 398 میلی متر مربع داشت. با فرض اینکه اگر GTX 1060 بر اساس چیپ GP106 تولید شود، طبق فناوری جدید 16 نانومتری FinFET کمپانی TSMC انتظار می رود مساحتی بین 170 تا 200 میلی متر مربع داشته باشد. اجازه بدهید برای حفظ جانب احتیاط آ نرا 200 میلی متر مربع در نظر بگیریم. آنالیزهای "هندل جونز" نشان می دهد که هزینه یک ویفر 16 نانومتری تا پایان سال 2016 تقریباً %70 از یک ویفر 28 نانومتری در پایان سال 2014 بیشتر خواهد که به معنای %70 افزایش هزینه در برابر مساحت است. اگر ما روند ساخت 28 نانومتری را با فرض به بلوغ رسیدن و مقدار نقص 0.01 بر هر سانتی متر مربع در نظر بگیریم، بنابراین انویدیا باید بتواند 76 چیپ در هر ویفر 28 نانومتری اعمال کند. با تقسیم هزینه ساخت ویفر بر تعداد چیپ های کارا، مقدار $58.68 در هر چیپ بدست می آید. با انجام همین روش برای روند ساخت نابالغ 16 نانومتر و با در نظر گرفتن مقدار نقص 0.015 بر هر سانتی متر مربع، انویدیا باید بتواند مقدار 164 چیپ در هر ویفر 16 نانومتری اعمال کند که با انجام همان تقسیم به مقدار $47.43 میرسیم. اگر این تخمین را درست در نظر بگیریم، به این نتیجه میرسیم که باید هزینه ساخت یک GTX 1060 با سطح 200 میلی متر مربع کمتر از هزینه ساخت یک GTX 980 با سطح 398 میلی متر مربع باشد. البته شاید ارزش اشاره کردن داشته باشد که در شرایط برابر یک چیپ کوچکتر بازده بیشتری نسبت به یک چیپ بزرگتر خواهد داشت. بنابراین از منظر هزینه ساخت Die به نظر می رسد که یک GTX 1060 هزینه کمتری نسبت به یک GTX 980 به بار خواهد آورد. گذشته از هزینه ساخت Die، خود بُرد هم هزینه ساخت کمتری خواهد داشت. GTX 1060 نسبت به GTX 980 از Memory Bus کمتری برخوردار خواهد بود (192bit vs. 256bit) که همین امر موجب کمتر شدن پیچیدگی بُردی خواهد شد که پردانده گرافیکی بر روی آن قرار گرفته شده است. به علاوه GTX 1060 مصرف کمتری نسبت به GTX 980 دارد (120watts vs. 165watts) که به انویدیا و شرکای آن این اجازه را میدهد از قطعات برق رسانی ارزانتر استفاده کرده و هزینه ساخت را در قسمت کانکتورهای برق نیز کاهش دهند. عکس های بیشتر تنها قسمتی که می تواند با افزایش هزینه همراه باشد، قسمت مموری های این کارت است: کارت گرافیک GTX 980 با 4 گیگابایت مموری GDDR5 عرضه می شد در حالیکه GTX 1060 دارای 6 گیگابایت مموری GDDR5 خواهد بود. GTX 980 زمانی عرضه شد که سامسونگ هنوز خبر تولید انبوه چیپ های مموری 8 گیگابایتی GDDR5 را اعلام نکرده بود. در ماه ژانویه 2015 بود که سامسونگ اولین بار رسماً از چیپ های 8 گیگابایتی GDDR5 این کمپانی در یک نشست خبری رونمایی کرد. از لحاظ کلی، چیپ های مموری چگال تر می توانند منجر به هزینه ای کمتر بر هر بیت شوند. با عنایت به این موضوع، 6 گیگابایت مموری کارت گرافیک GTX 1060 میتواند در نهایت حتی قیمتی برابر (یا حتی ارزانتر) با 4 گیگابایت مموری موجود بر روی کارت گرافیک های GTX 980 و GTX 970 داشته باشد. Source: Fool.com
  22. AMD RX480 Crossfire vs GTX1080 vs GTX1070 vs 970 SSC SLI http://www.aparat.com/v/0krt8 ...!Well, that settles it -------------------------------------------------------------------------------------- نظر شخصی: درود بر دوستان @};- بعد از چند روزی که از عرضه کارت گرافیک Radeon RX480 توسط AMD میگذره، جدا از بقیه WWW، در فروم شاهد کامنت هایی درباره دمای این کارت و استفاده توان مصرفی اون از درگاه PCI-E و همچنین اسلاید AMD درباره Crossfire این کارت در عنوان AotS هستیم. در این ویدئو از کانال JayZTwoCents این مسائل توسط یک فرد حرفه ای و بی طرف (اگر قبول داشته باشید!) بحث شده. نتایج و صحبت های این ویدئو تقریباً مسائل مربوط به این مشکلات رو حل میکنه. درخواستی که از دوستان دارم اینه که تا این ویدئو رو تماشا نکردن یا در ترجمه حرفهای ایشون مشکل دارن جهت حفظ آرامش این تاپیک از اظهار نظر خودداری کنند. (استارتر عزیز از کل کل در این تاپیک خوشش نمیاد :D ) نتایج قرار داده شده و صحبت های گفته شده تماماً در دنیای واقعی هست پس لطفاً از مطرح کردن سناریوهای بالیوودی که "اگر این اینجور بود، اون اونجوری میشد" و این حرف ها پرهیز کنید. یک نکته دیگه هم بگم که بعد از اینکه ویدئو رو تماشا کردید متوجه حرف من میشید: AMD قبلاً اعلام کرده بود تست عنوان AotS رو 10 بار انجام داده و پایدارترین نتیجه رو قرار داده. امیدوارم این ویدئو به یکسری شایعات و ... پایان بده. تشکر @};-
×
×
  • اضافه کردن...