Kiedy po raz pierwszy dodano renderowanie GPU, było to bardzo zawodne. Czasami byłby wolniejszy niż renderowanie programowe i istniały pewne rodzaje GUI, z którymi po prostu nie mógł pracować. Z tego powodu do programisty aplikacji należało przetestowanie jej aplikacji z renderowaniem GPU i ustawienie opcji w manifeście aplikacji (to samo miejsce, w którym deklaruje swoje uprawnienia), aby włączyć renderowanie GPU dla tej aplikacji. Opcja polegała głównie na ułatwieniu programistom testowania wpływu renderowania GPU na ich aplikację. Ma to sens, ponieważ:
- większość użytkowników nie wie, czym jest renderowanie GPU i nie wie, czy powinno ono być włączone, czy wyłączone dla danej aplikacji; i
- ustawienie naprawdę musi dotyczyć aplikacji, a nie całego urządzenia, ponieważ niektóre aplikacje po prostu nie działałyby z włączonym renderowaniem GPU.
Po dalszym rozwoju, kiedy pojawiło się 4.0, renderowanie GPU stało się bardziej niezawodne, więc stało się domyślnym dla wszystkich aplikacji: teraz deweloper musi jawnie wyłączyć renderowanie GPU, jeśli spowoduje to problem w ich aplikacji. (Teraz jest to bardzo rzadkie.) Opcja „Wymuś renderowanie GPU” jest szczątkowa i rzadko używana nawet teraz przez programistów, ponieważ jest już domyślna.