Проблема кодирования и декодирования аудиозаписи в формате G711 (PCMU - uLaw)

существует не слишком много информации о применении этого кодека, когда нам нужно потоковое аудио. Без применения кодека мой код работает как шарм, устанавливая связь между 2 устройствами, но мне нужно кодировать/декодировать в этом формате, потому что мне понадобится потоковая передача с сервером, а не между двумя устройствами (я тестирую этот код с помощью 2 устройств).

Я ищу шанс, если кто-нибудь из вас может увидеть, где ключ к моей проблеме. Я пробовал разные конфигурации входной параметр. Возможно, кодеки, которые я использую, неверны (я взял их из одного проекта с лицензией Apache.)

эти значения устанавливаются в регистраторе-отправителе, как и в устройстве player-receiver:

private int port=50005;
private int sampleRate = 8000 ;//44100;
private int channelConfig = AudioFormat.CHANNEL_OUT_MONO;    
private int audioFormat = AudioFormat.ENCODING_PCM_16BIT;       
int minBufSize = AudioTrack.getMinBufferSize(sampleRate, channelConfig, audioFormat);

Примечание: CHANNEL_OUT_MONO в проигрывателе и CHANNEL_IN_MONO в элементе рекордера.

и вот мои методы:

public void startStreamingEncoding() {

    Thread streamThread = new Thread(new Runnable() {

        @Override
        public void run() {
            try {

                android.os.Process.setThreadPriority(android.os.Process.THREAD_PRIORITY_URGENT_AUDIO);

                DatagramSocket socket = new DatagramSocket();

                short[] buffer = new short[minBufSize];

                DatagramPacket packet;

                final InetAddress destination = InetAddress.getByName(ip_receiver); 

                recorder = new AudioRecord(MediaRecorder.AudioSource.MIC,sampleRate,channelConfig,audioFormat,minBufSize*10);

                recorder.startRecording();

                /////Encoding:
                Encoder encoder = new G711UCodec();
                byte[] outBuffer = new byte[minBufSize];

                while(status == true) {

                    //reading data from MIC into buffer
                    minBufSize = recorder.read(buffer, 0, buffer.length);
                    //Encoding:
                    encoder.encode(buffer, minBufSize, outBuffer, 0);

                    //putting buffer in the packet
                    packet = new DatagramPacket (outBuffer, outBuffer.length, destination,port);

                    socket.send(packet);
                }

            } catch(UnknownHostException e) {
                Log.e("VS", "UnknownHostException");
            } catch (IOException e) {
                e.printStackTrace();
                Log.e("VS", "IOException");
            } 
        }

    });
    streamThread.start();
 }

и способ воспроизведения и декодирования потока:

    public void playerAudioDecoding()
{
    Thread thrd = new Thread(new Runnable() {
        @Override
        public void run() 
        {
            android.os.Process.setThreadPriority(android.os.Process.THREAD_PRIORITY_URGENT_AUDIO);

            AudioTrack track = new AudioTrack(AudioManager.STREAM_MUSIC, 
                    sampleRate, AudioFormat.CHANNEL_CONFIGURATION_MONO, 
                    AudioFormat.ENCODING_PCM_16BIT, minBufSize, 
                    AudioTrack.MODE_STREAM);
            track.play();

            Decoder decoder = new G711UCodec();

            try
            {
                DatagramSocket sock = new DatagramSocket(port);
                byte[] buf = new byte[minBufSize];

                while(true)
                {
                    DatagramPacket pack = new DatagramPacket(buf, minBufSize);
                    sock.receive(pack);

                    //Decoding:
                    int size = pack.getData().length;
                    short[] shortArray = new short[size];

                    decoder.decode(shortArray, pack.getData(), minBufSize, 0);
                    byte[] array = MyShortToByte(shortArray);
                    track.write(array, 0, array.length);
                }
            }
            catch (SocketException se)
            {
                Log.e("Error", "SocketException: " + se.toString());
            }
            catch (IOException ie)
            {
                Log.e("Error", "IOException" + ie.toString());
            }
        } // end run
    });
    thrd.start();
}

и это класс кодека, которым я являюсь использование с лицензией Apache:

public class G711UCodec implements Encoder, Decoder {
// s00000001wxyz...s000wxyz
// s0000001wxyza...s001wxyz
// s000001wxyzab...s010wxyz
// s00001wxyzabc...s011wxyz
// s0001wxyzabcd...s100wxyz
// s001wxyzabcde...s101wxyz
// s01wxyzabcdef...s110wxyz
// s1wxyzabcdefg...s111wxyz

private static byte[] table13to8 = new byte[8192];
private static short[] table8to16 = new short[256];

static {
    // b13 --> b8
    for (int p = 1, q = 0; p <= 0x80; p <<= 1, q+=0x10) {
        for (int i = 0, j = (p << 4) - 0x10; i < 16; i++, j += p) {
            int v = (i + q) ^ 0x7F;
            byte value1 = (byte) v;
            byte value2 = (byte) (v + 128);
            for (int m = j, e = j + p; m < e; m++) {
                table13to8[m] = value1;
                table13to8[8191 - m] = value2;
            }
        }
    }

    // b8 --> b16
    for (int q = 0; q <= 7; q++) {
        for (int i = 0, m = (q << 4); i < 16; i++, m++) {
            int v = (((i + 0x10) << q) - 0x10) << 3;
            table8to16[m ^ 0x7F] = (short) v;
            table8to16[(m ^ 0x7F) + 128] = (short) (65536 - v);
        }
    }
}

public int decode(short[] b16, byte[] b8, int count, int offset) {
    for (int i = 0, j = offset; i < count; i++, j++) {
        b16[i] = table8to16[b8[j] & 0xFF];
    }
    return count;
}

public int encode(short[] b16, int count, byte[] b8, int offset) {

    for (int i = 0, j = offset; i < count; i++, j++) {
        b8[j] = table13to8[(b16[i] >> 4) & 0x1FFF];
    }
    return count;
}

public int getSampleCount(int frameSize) {
    return frameSize;
}

}

действительно, я не знаю, что это происходит; если я изменю sampleRate на 4000, я могу узнать свой голос и некоторые слова, но есть много Эхо. И я повторяю, если отключить процесс кодирования / декодирования и сделать потоковую передачу в PCM, качество фантастическое. Посмотрим, может ли кто-нибудь помочь мне и заранее спасибо.

2 ответов


хорошо, ребята, наконец, я решил для себя проблему кодирования/декодирования звука. Это была раздражающая задача на прошлой неделе. Основная проблема моего кода заключалась в том, что кодирование было хорошо сделано, но декодирование не было, поэтому я работал вокруг него и изменял этот класс с помощью других ресурсов, и я создал свои собственные методы кодирования/декодирования (и они работают как шарм!!!).

другим важным решением было изменение формата кодирования. Теперь я использую alaw, а не больше оцифрованных аудиозаписей в формате ulaw. Единственная причина, по которой я сделал это изменение, заключается в том, что программно легче реализовать alaw, чем ulaw.

также мне пришлось много играть с параметрами в качестве размеров буферов и т. д.

Я отправлю свой код, и я надеюсь, что кто-то из Вас сможет сэкономить столько времени, используя мои ссылки.

    private int port=50005;
private int sampleRate = 8000; //44100;
private int channelConfig = AudioFormat.CHANNEL_IN_MONO;    
private int audioFormat = AudioFormat.ENCODING_PCM_16BIT;       
int minBufSize = AudioRecord.getMinBufferSize(sampleRate, channelConfig, audioFormat);

public void startStreamingEncoding() {

    Thread streamThread = new Thread(new Runnable() {

        @Override
        public void run() {
            try {

                android.os.Process.setThreadPriority(android.os.Process.THREAD_PRIORITY_URGENT_AUDIO);

                DatagramSocket socket = new DatagramSocket();

                byte[] buffer = new byte[4096];

                DatagramPacket packet;

                final InetAddress destination = InetAddress.getByName(ip_receiver); 

                recorder = new AudioRecord(MediaRecorder.AudioSource.MIC,sampleRate,channelConfig,audioFormat, minBufSize * 10);

                recorder.startRecording();

                /////Encoding:
                CMG711 encoder = new CMG711();
                byte[] outBuffer = new byte[4096];

                int read, encoded;
                File sdCard = Environment.getExternalStorageDirectory();
                FileOutputStream out = new FileOutputStream( new File( sdCard ,"audio-bernard.raw" ));

                while(status == true) {

                    //reading data from MIC into buffer
                    read = recorder.read(buffer, 0, buffer.length);
                    Log.d(getTag(), "read: "+read );

                    //Encoding:
                    encoded = encoder.encode(buffer,0, read, outBuffer);                      

                    //putting buffer in the packet
                    packet = new DatagramPacket (outBuffer, encoded, destination,port);
                    out.write( outBuffer, 0, encoded );

                    socket.send(packet);
                }

            } catch(UnknownHostException e) {
                Log.e("VS", "UnknownHostException");
            } catch (IOException e) {
                e.printStackTrace();
                Log.e("VS", "IOException");
            } 
        }

    });
    streamThread.start();
 }

и для приемника и игрока класса или метода:

private int port=50005;
private int sampleRate = 8000 ;//44100;
private int channelConfig = AudioFormat.CHANNEL_OUT_MONO;    
private int audioFormat = AudioFormat.ENCODING_PCM_16BIT;       
int minBufSize = AudioTrack.getMinBufferSize(sampleRate, channelConfig, audioFormat);


 public void playerAudioDecodingBernard()
    {
        Thread thrd = new Thread(new Runnable() {
            @Override
            public void run() 
            {
                android.os.Process.setThreadPriority(android.os.Process.THREAD_PRIORITY_URGENT_AUDIO);

                AudioTrack track = new AudioTrack(AudioManager.STREAM_MUSIC, 
                        sampleRate, AudioFormat.CHANNEL_OUT_MONO, 
                        AudioFormat.ENCODING_PCM_16BIT, minBufSize * 10, 
                        AudioTrack.MODE_STREAM);


                CMG711 decoder = new CMG711();

                try
                {
                    DatagramSocket sock = new DatagramSocket(port);
                    byte[] buf = new byte[4096];

                    int frame = 0;
                    while(true)
                    {
                        DatagramPacket pack = new DatagramPacket(buf, 4096);
                        sock.receive(pack);

                        //Decoding:                         
                        int size = pack.getLength();
                        //Log.d( "Player", "Player: "+ size +", "+pack.getLength() + ", "+pack.getOffset() );
                        byte[] byteArray = new byte[size*2];

                        decoder.decode(pack.getData(), 0, size, byteArray);
                        track.write(byteArray, 0, byteArray.length);

                        if( frame++ > 3 )
                            track.play();
                    }
                }
                catch (SocketException se)
                {
                    Log.e("Error", "SocketException: " + se.toString());
                }
                catch (IOException ie)
                {
                    Log.e("Error", "IOException" + ie.toString());
                }
            } // end run
        });
        thrd.start();
    }

и это класс o кодирование / декодирование в alaw формат:

public class CMG711
{
/** decompress table constants */
private static short aLawDecompressTable[] = new short[]
{ -5504, -5248, -6016, -5760, -4480, -4224, -4992, -4736, -7552, -7296, -8064, -7808, -6528, -6272, -7040, -6784, -2752, -2624, -3008, -2880, -2240, -2112, -2496, -2368, -3776, -3648, -4032, -3904, -3264, -3136, -3520, -3392, -22016, -20992, -24064, -23040, -17920, -16896, -19968, -18944, -30208, -29184, -32256, -31232, -26112, -25088, -28160, -27136, -11008, -10496, -12032, -11520, -8960, -8448, -9984, -9472, -15104, -14592, -16128, -15616, -13056, -12544, -14080, -13568, -344, -328, -376,
        -360, -280, -264, -312, -296, -472, -456, -504, -488, -408, -392, -440, -424, -88, -72, -120, -104, -24, -8, -56, -40, -216, -200, -248, -232, -152, -136, -184, -168, -1376, -1312, -1504, -1440, -1120, -1056, -1248, -1184, -1888, -1824, -2016, -1952, -1632, -1568, -1760, -1696, -688, -656, -752, -720, -560, -528, -624, -592, -944, -912, -1008, -976, -816, -784, -880, -848, 5504, 5248, 6016, 5760, 4480, 4224, 4992, 4736, 7552, 7296, 8064, 7808, 6528, 6272, 7040, 6784, 2752, 2624,
        3008, 2880, 2240, 2112, 2496, 2368, 3776, 3648, 4032, 3904, 3264, 3136, 3520, 3392, 22016, 20992, 24064, 23040, 17920, 16896, 19968, 18944, 30208, 29184, 32256, 31232, 26112, 25088, 28160, 27136, 11008, 10496, 12032, 11520, 8960, 8448, 9984, 9472, 15104, 14592, 16128, 15616, 13056, 12544, 14080, 13568, 344, 328, 376, 360, 280, 264, 312, 296, 472, 456, 504, 488, 408, 392, 440, 424, 88, 72, 120, 104, 24, 8, 56, 40, 216, 200, 248, 232, 152, 136, 184, 168, 1376, 1312, 1504, 1440, 1120,
        1056, 1248, 1184, 1888, 1824, 2016, 1952, 1632, 1568, 1760, 1696, 688, 656, 752, 720, 560, 528, 624, 592, 944, 912, 1008, 976, 816, 784, 880, 848 };

private final static int cClip = 32635;
private static byte aLawCompressTable[] = new byte[]
{ 1, 1, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7 };

public int encode( byte[] src, int offset, int len, byte[] res )
{
    int j = offset;
    int count = len / 2;
    short sample = 0;

    for ( int i = 0; i < count; i++ )
    {
        sample = (short) ( ( ( src[j++] & 0xff ) | ( src[j++] ) << 8 ) );
        res[i] = linearToALawSample( sample );
    }
    return count;
}

private byte linearToALawSample( short sample )
{
    int sign;
    int exponent;
    int mantissa;
    int s;

    sign = ( ( ~sample ) >> 8 ) & 0x80;
    if ( !( sign == 0x80 ) )
    {
        sample = (short) -sample;
    }
    if ( sample > cClip )
    {
        sample = cClip;
    }
    if ( sample >= 256 )
    {
        exponent = (int) aLawCompressTable[( sample >> 8 ) & 0x7F];
        mantissa = ( sample >> ( exponent + 3 ) ) & 0x0F;
        s = ( exponent << 4 ) | mantissa;
    }
    else
    {
        s = sample >> 4;
    }
    s ^= ( sign ^ 0x55 );
    return (byte) s;
}

public void decode( byte[] src, int offset, int len, byte[] res )
{
    int j = 0;
    for ( int i = 0; i < len; i++ )
    {
        short s = aLawDecompressTable[src[i + offset] & 0xff];
        res[j++] = (byte) s;
        res[j++] = (byte) ( s >> 8 );
    }
}
}

надеюсь быть полезным для кого-то из вас! В любом случае спасибо за помощь, особенно bonnyz.


какую выборку вы пробовали? Частота дискретизации (как при воспроизведении, так и при записи) - это очень важно, потому что она включает в себя весь аудиопровод, и только немногие настройки гарантируют работу на каждом устройстве (я уверен в 44100). Кроме того, имейте в виду, что вы не может укажите случайную выборку (например, 4000), потому что они будут (или они должны) масштабироваться до ближайшей поддерживаемой выборки. Аналогичные соображения справедливы и для размера буфера.

мое предположение что неправильная настройка трубопровода создает звуковые артефакты, которые вырождаются после шага "сжатие".

что произойдет, если вы настроите клиентов с 44100?

можно попробовать запросить AudioManager и затем проверить variuous поддерживается частота дискретизации/параметр bufferSize

AudioManager audioManager = (AudioManager) this.getSystemService(Context.AUDIO_SERVICE);
String rate = audioManager.getProperty(AudioManager.PROPERTY_OUTPUT_SAMPLE_RATE);
String size = audioManager.getProperty(AudioManager.PROPERTY_OUTPUT_FRAMES_PER_BUFFER);