Raspberry Pi wykona sprzętowo przyspieszone kodowanie h264 podczas nagrywania wideo z płyty kamery. Jak mogę zakodować h264 (przy użyciu akceleracji sprzętowej), gdy obrazy źródłowe nie pochodzą bezpośrednio z aparatu?
Czy są dostępne jakieś narzędzia wiersza poleceń?
Jeśli nie, na jakie interfejsy API powinienem patrzeć, aby było to możliwe?
raspiyuv -o - | rpi-encode-yuv
(w przybliżeniu) w przypadku gdyrpi-encode-yuv
narzędzie jest od tutaj . Rozmiar ramki jest zakodowany na stałe w tym narzędziu, więc musisz go zmienić na początku pliku C i ponownie skompilować. Niestety nie udało mi się uzyskać odpowiednio wyrównanego wyjścia, ponieważraspiyuv
wydaje się , że nie koduje rozmiaru ramki w jego wyniku. Dostaję stopniowo zmieniające się zdjęcie, które ostatecznie zmienia się w śmieci. Nadal nad tym pracuję.Odpowiedzi:
GStreamer jest dołączony do Raspbian, a dzięki wtyczce OpenMAX będzie korzystać z możliwości sprzętowego kodowania Raspberry Pi.
Ten link zawiera samouczek dotyczący robienia tego, czego szukasz: https://www.raspberrypi.org/forums/viewtopic.php?t=72435
Jeśli jesteś zainteresowany transkodowaniem, właśnie opublikowałem odpowiedź na inne pytanie, które może Cię zainteresować: Jakiej prędkości mogę się spodziewać po sprzętowym kodowaniu H264?
źródło
Wygląda na to, że sam skompilujesz ffmpeg, na RPi3B + możesz dostać
Skrypt ułatwiający osiągnięcie tego wszystkiego znajduje się w wątku na forum .
źródło