Я бачив багато інформації про те, як передавати відео з сервера на андроїд-пристрій, але не дуже про інший шлях, ала Qik. Чи міг би хтось вказати мене в правильному напрямку тут, чи дасть мені поради, як підійти до цього?
Я бачив багато інформації про те, як передавати відео з сервера на андроїд-пристрій, але не дуже про інший шлях, ала Qik. Чи міг би хтось вказати мене в правильному напрямку тут, чи дасть мені поради, як підійти до цього?
Відповіді:
Я влаштував проект з відкритим кодом, який дозволив телефоні Android з IP-камери:
http://code.google.com/p/ipcamera-for-android
Сирі дані відео отримують з LocalSocket, і MDAT MOOV MP4 перевіряли спочатку перед потоковою передачею. Відео в прямому ефірі упаковане у форматі FLV і може відтворюватися через Flash відеоплеєр із вбудованим веб-сервером :)
ndk-build
. Для отримання додаткової інформації читайте документацію NDK .
Взяв мене деякий час, але я нарешті встигаю зробити додаток, який робить саме це. Ознайомтеся з кодовою сторінкою Google, якщо вас цікавить: http://code.google.com/p/spydroid-ipcamera/ Я додав у свій код безліч коментарів (головним чином, подивіться на CameraStreamer.java), тож має бути досить зрозумілий. Важкою частиною було насправді зрозуміти RFC 3984 та реалізувати належний алгоритм процесу пакетизації. (Цей алгоритм фактично перетворює потік mpeg4 / h.264, що виробляється MediaRecorder, у приємний потік rtp, згідно з rfc)
До побачення
Я також розглядаю це, і, хоча у мене немає хорошого рішення для вас, мені вдалося викопати відео-код SIPDroid:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
Я створив SDK з відкритим кодом під назвою Kickflip, щоб зробити потокове відео з Android безболісним досвідом.
SDK демонструє використання MediaCodec API Android 4.3 для направлення пакетів апаратного кодування пристрою безпосередньо на FFmpeg для RTMP (з librtmp) або HLS- потоку H.264 / AAC. Він також демонструє ефекти OpenGL в режимі реального часу (заголовки, кольоровість клавіш, зникає) та фоновий запис.
Дякую ТАК, і особливо, зів’яла .
Ось повна стаття про передачу відео з камери Android на веб-сторінку.
Потокове відео з камери Android на веб-сторінку
Я можу надіслати відео з камери в реальному часі з мобільного на мій сервер. За допомогою цього посилання дивіться посилання
Перегляньте вище посилання. У цьому посиланні є зразок програми. Просто потрібно встановити службову URL-адресу в RecordActivity.class.
Приклад як: ffmpeg_link = "rtmp: // yourserveripaddress: 1935 / live / venkat";
ми можемо надсилати відео H263 та H264 за цим посиланням.
Це навряд чи повна відповідь, але webRTC може бути те, що ви шукаєте. Ось кілька коротких прикладів дії webRTC в дії: http://www.webrtc.org/reference-apps
Якщо ви хочете конкретний код для Android, він існує! http://www.webrtc.org/native-code/android
Перевірте бібліотеку Yasea
Yasea - потоковий клієнт Android. Він кодує дані YUV та PCM від камери та мікрофона до H.264 / AAC, інкапсулює у FLV та передає по RTMP.
Особливість:
Мукс (моя компанія) має додаток для Android з відкритим кодом, який передає RTMP на сервер, включаючи налаштування камери та взаємодії користувачів. Він створений для передачі потоку в поточний API Mux, але може легко передавати в будь-яку точку входу RTMP.
Залежно від бюджету, ви можете використовувати Raspberry Pi Camera, яка може надсилати зображення на сервер. Додаю сюди два навчальні посібники, де ви можете знайти ще багато деталей:
Цей підручник показує, як використовувати програму Raspberry Pi Camera та відображати зображення на пристрої Android
Це другий підручник, де ви можете знайти серію навчальних посібників про потокове відео в режимі реального часу між камерою та пристроєм Android