]> granicus.if.org Git - libjpeg-turbo/commitdiff
Reformat code per Siarhei's original patch (to clearly indicate that the offset instr...
authorDRC <dcommander@users.sourceforge.net>
Mon, 25 Aug 2014 15:26:09 +0000 (15:26 +0000)
committerDRC <dcommander@users.sourceforge.net>
Mon, 25 Aug 2014 15:26:09 +0000 (15:26 +0000)
git-svn-id: svn+ssh://svn.code.sf.net/p/libjpeg-turbo/code/trunk@1388 632fc199-4ca6-4c93-a231-07263d6284db

simd/jsimd_arm_neon.S

index 7e8e134ce672f639f72b7c96a82c8aa3aaf15bd4..4d9685b06667657c41a24aeb3b0c5bf8c71ccc61 100644 (file)
@@ -4,6 +4,7 @@
  * Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies).
  * All rights reserved.
  * Author: Siarhei Siamashka <siarhei.siamashka@nokia.com>
+ * Copyright (C) 2014 Siarhei Siamashka.  All Rights Reserved.
  * Copyright (C) 2014 Linaro Limited.  All Rights Reserved.
  *
  * This software is provided 'as-is', without any express or implied
@@ -1408,52 +1409,52 @@ asm_function jsimd_idct_2x2_neon
 .endm
 
 .macro do_yuv_to_rgb_stage2_store_load_stage1
-      /* "do_yuv_to_rgb_stage2" and "store" */
-      vrshrn.s32      d20, q10, #15
+                                       /* "do_yuv_to_rgb_stage2" and "store" */
+                                       vrshrn.s32      d20, q10, #15
     /* "load" and "do_yuv_to_rgb_stage1" */
     pld             [U, #64]
-      vrshrn.s32      d21, q11, #15
+                                       vrshrn.s32      d21, q11, #15
     pld             [V, #64]
-      vrshrn.s32      d24, q12, #14
-      vrshrn.s32      d25, q13, #14
+                                       vrshrn.s32      d24, q12, #14
+                                       vrshrn.s32      d25, q13, #14
     vld1.8          {d4}, [U, :64]!
-      vrshrn.s32      d28, q14, #14
+                                       vrshrn.s32      d28, q14, #14
     vld1.8          {d5}, [V, :64]!
-      vrshrn.s32      d29, q15, #14
+                                       vrshrn.s32      d29, q15, #14
     vaddw.u8        q3, q1, d4     /* q3 = u - 128 */
     vaddw.u8        q4, q1, d5     /* q2 = v - 128 */
-      vaddw.u8        q11, q10, d0
+                                       vaddw.u8        q11, q10, d0
     vmull.s16       q10, d6, d1[1] /* multiply by -11277 */
     vmlal.s16       q10, d8, d1[2] /* multiply by -23401 */
-      vaddw.u8        q12, q12, d0
-      vaddw.u8        q14, q14, d0
+                                       vaddw.u8        q12, q12, d0
+                                       vaddw.u8        q14, q14, d0
 .if \bpp != 16 /**************** rgb24/rgb32 *********************************/
-      vqmovun.s16     d1\g_offs, q11
+                                       vqmovun.s16     d1\g_offs, q11
     pld             [Y, #64]
-      vqmovun.s16     d1\r_offs, q12
+                                       vqmovun.s16     d1\r_offs, q12
     vld1.8          {d0}, [Y, :64]!
-      vqmovun.s16     d1\b_offs, q14
+                                       vqmovun.s16     d1\b_offs, q14
     vmull.s16       q11, d7, d1[1] /* multiply by -11277 */
     vmlal.s16       q11, d9, d1[2] /* multiply by -23401 */
-      do_store        \bpp, 8
+                                       do_store        \bpp, 8
     vmull.s16       q12, d8, d1[0] /* multiply by 22971 */
     vmull.s16       q13, d9, d1[0] /* multiply by 22971 */
     vmull.s16       q14, d6, d1[3] /* multiply by 29033 */
     vmull.s16       q15, d7, d1[3] /* multiply by 29033 */
 .else /**************************** rgb565 ***********************************/
-      vqshlu.s16      q13, q11, #8
+                                       vqshlu.s16      q13, q11, #8
     pld             [Y, #64]
-      vqshlu.s16      q15, q12, #8
-      vqshlu.s16      q14, q14, #8
+                                       vqshlu.s16      q15, q12, #8
+                                       vqshlu.s16      q14, q14, #8
     vld1.8          {d0}, [Y, :64]!
     vmull.s16       q11, d7, d1[1]
     vmlal.s16       q11, d9, d1[2]
-      vsri.u16        q15, q13, #5
+                                       vsri.u16        q15, q13, #5
     vmull.s16       q12, d8, d1[0]
-      vsri.u16        q15, q14, #11
+                                       vsri.u16        q15, q14, #11
     vmull.s16       q13, d9, d1[0]
     vmull.s16       q14, d6, d1[3]
-      do_store        \bpp, 8
+                                       do_store        \bpp, 8
     vmull.s16       q15, d7, d1[3]
 .endif
 .endm