* Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies).
* All rights reserved.
* Author: Siarhei Siamashka <siarhei.siamashka@nokia.com>
+ * Copyright (C) 2014 Siarhei Siamashka. All Rights Reserved.
* Copyright (C) 2014 Linaro Limited. All Rights Reserved.
*
* This software is provided 'as-is', without any express or implied
.endm
.macro do_yuv_to_rgb_stage2_store_load_stage1
- /* "do_yuv_to_rgb_stage2" and "store" */
- vrshrn.s32 d20, q10, #15
+ /* "do_yuv_to_rgb_stage2" and "store" */
+ vrshrn.s32 d20, q10, #15
/* "load" and "do_yuv_to_rgb_stage1" */
pld [U, #64]
- vrshrn.s32 d21, q11, #15
+ vrshrn.s32 d21, q11, #15
pld [V, #64]
- vrshrn.s32 d24, q12, #14
- vrshrn.s32 d25, q13, #14
+ vrshrn.s32 d24, q12, #14
+ vrshrn.s32 d25, q13, #14
vld1.8 {d4}, [U, :64]!
- vrshrn.s32 d28, q14, #14
+ vrshrn.s32 d28, q14, #14
vld1.8 {d5}, [V, :64]!
- vrshrn.s32 d29, q15, #14
+ vrshrn.s32 d29, q15, #14
vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
vaddw.u8 q4, q1, d5 /* q2 = v - 128 */
- vaddw.u8 q11, q10, d0
+ vaddw.u8 q11, q10, d0
vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
- vaddw.u8 q12, q12, d0
- vaddw.u8 q14, q14, d0
+ vaddw.u8 q12, q12, d0
+ vaddw.u8 q14, q14, d0
.if \bpp != 16 /**************** rgb24/rgb32 *********************************/
- vqmovun.s16 d1\g_offs, q11
+ vqmovun.s16 d1\g_offs, q11
pld [Y, #64]
- vqmovun.s16 d1\r_offs, q12
+ vqmovun.s16 d1\r_offs, q12
vld1.8 {d0}, [Y, :64]!
- vqmovun.s16 d1\b_offs, q14
+ vqmovun.s16 d1\b_offs, q14
vmull.s16 q11, d7, d1[1] /* multiply by -11277 */
vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */
- do_store \bpp, 8
+ do_store \bpp, 8
vmull.s16 q12, d8, d1[0] /* multiply by 22971 */
vmull.s16 q13, d9, d1[0] /* multiply by 22971 */
vmull.s16 q14, d6, d1[3] /* multiply by 29033 */
vmull.s16 q15, d7, d1[3] /* multiply by 29033 */
.else /**************************** rgb565 ***********************************/
- vqshlu.s16 q13, q11, #8
+ vqshlu.s16 q13, q11, #8
pld [Y, #64]
- vqshlu.s16 q15, q12, #8
- vqshlu.s16 q14, q14, #8
+ vqshlu.s16 q15, q12, #8
+ vqshlu.s16 q14, q14, #8
vld1.8 {d0}, [Y, :64]!
vmull.s16 q11, d7, d1[1]
vmlal.s16 q11, d9, d1[2]
- vsri.u16 q15, q13, #5
+ vsri.u16 q15, q13, #5
vmull.s16 q12, d8, d1[0]
- vsri.u16 q15, q14, #11
+ vsri.u16 q15, q14, #11
vmull.s16 q13, d9, d1[0]
vmull.s16 q14, d6, d1[3]
- do_store \bpp, 8
+ do_store \bpp, 8
vmull.s16 q15, d7, d1[3]
.endif
.endm