Czy ktoś tutaj używał obliczeń naukowych o podwójnej precyzji z procesorami graficznymi nowej generacji (np. K20) za pośrednictwem Pythona? Wiem, że ta technologia szybko się rozwija, ale jaki jest obecnie najlepszy sposób? GPU nie wchodzi w zakres popularnych naukowych bibliotek Pythona numpy i...