From: DRC Date: Mon, 25 Aug 2014 15:26:09 +0000 (+0000) Subject: Reformat code per Siarhei's original patch (to clearly indicate that the offset instr... X-Git-Tag: 1.3.90~2 X-Git-Url: https://granicus.if.org/sourcecode?a=commitdiff_plain;h=a6efae148889d42d60c2d2294cda7f03c6fbb490;p=libjpeg-turbo Reformat code per Siarhei's original patch (to clearly indicate that the offset instructions are completely independent) and add Siarhei as an individual author (he no longer works for Nokia.) git-svn-id: svn+ssh://svn.code.sf.net/p/libjpeg-turbo/code/trunk@1388 632fc199-4ca6-4c93-a231-07263d6284db --- diff --git a/simd/jsimd_arm_neon.S b/simd/jsimd_arm_neon.S index 7e8e134..4d9685b 100644 --- a/simd/jsimd_arm_neon.S +++ b/simd/jsimd_arm_neon.S @@ -4,6 +4,7 @@ * Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies). * All rights reserved. * Author: Siarhei Siamashka + * Copyright (C) 2014 Siarhei Siamashka. All Rights Reserved. * Copyright (C) 2014 Linaro Limited. All Rights Reserved. * * This software is provided 'as-is', without any express or implied @@ -1408,52 +1409,52 @@ asm_function jsimd_idct_2x2_neon .endm .macro do_yuv_to_rgb_stage2_store_load_stage1 - /* "do_yuv_to_rgb_stage2" and "store" */ - vrshrn.s32 d20, q10, #15 + /* "do_yuv_to_rgb_stage2" and "store" */ + vrshrn.s32 d20, q10, #15 /* "load" and "do_yuv_to_rgb_stage1" */ pld [U, #64] - vrshrn.s32 d21, q11, #15 + vrshrn.s32 d21, q11, #15 pld [V, #64] - vrshrn.s32 d24, q12, #14 - vrshrn.s32 d25, q13, #14 + vrshrn.s32 d24, q12, #14 + vrshrn.s32 d25, q13, #14 vld1.8 {d4}, [U, :64]! - vrshrn.s32 d28, q14, #14 + vrshrn.s32 d28, q14, #14 vld1.8 {d5}, [V, :64]! - vrshrn.s32 d29, q15, #14 + vrshrn.s32 d29, q15, #14 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */ vaddw.u8 q4, q1, d5 /* q2 = v - 128 */ - vaddw.u8 q11, q10, d0 + vaddw.u8 q11, q10, d0 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */ vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */ - vaddw.u8 q12, q12, d0 - vaddw.u8 q14, q14, d0 + vaddw.u8 q12, q12, d0 + vaddw.u8 q14, q14, d0 .if \bpp != 16 /**************** rgb24/rgb32 *********************************/ - vqmovun.s16 d1\g_offs, q11 + vqmovun.s16 d1\g_offs, q11 pld [Y, #64] - vqmovun.s16 d1\r_offs, q12 + vqmovun.s16 d1\r_offs, q12 vld1.8 {d0}, [Y, :64]! - vqmovun.s16 d1\b_offs, q14 + vqmovun.s16 d1\b_offs, q14 vmull.s16 q11, d7, d1[1] /* multiply by -11277 */ vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */ - do_store \bpp, 8 + do_store \bpp, 8 vmull.s16 q12, d8, d1[0] /* multiply by 22971 */ vmull.s16 q13, d9, d1[0] /* multiply by 22971 */ vmull.s16 q14, d6, d1[3] /* multiply by 29033 */ vmull.s16 q15, d7, d1[3] /* multiply by 29033 */ .else /**************************** rgb565 ***********************************/ - vqshlu.s16 q13, q11, #8 + vqshlu.s16 q13, q11, #8 pld [Y, #64] - vqshlu.s16 q15, q12, #8 - vqshlu.s16 q14, q14, #8 + vqshlu.s16 q15, q12, #8 + vqshlu.s16 q14, q14, #8 vld1.8 {d0}, [Y, :64]! vmull.s16 q11, d7, d1[1] vmlal.s16 q11, d9, d1[2] - vsri.u16 q15, q13, #5 + vsri.u16 q15, q13, #5 vmull.s16 q12, d8, d1[0] - vsri.u16 q15, q14, #11 + vsri.u16 q15, q14, #11 vmull.s16 q13, d9, d1[0] vmull.s16 q14, d6, d1[3] - do_store \bpp, 8 + do_store \bpp, 8 vmull.s16 q15, d7, d1[3] .endif .endm