This is the mail archive of the
gcc-patches@gcc.gnu.org
mailing list for the GCC project.
[PATCH] vmx testsuite: split up failing test ops.c
- From: Janis Johnson <janis187 at us dot ibm dot com>
- To: gcc-patches at gcc dot gnu dot org
- Date: Fri, 28 May 2004 14:54:02 -0700
- Subject: [PATCH] vmx testsuite: split up failing test ops.c
The test vmx/ops.c has about 400 failures with Zem's latest fix to
altivec.h (and lots more without it). Those failures hide the 3000 or
so checks that pass. This patch moves the failures to two new tests
so that ops.c itself will be able to find regressions while the other
checks still fail.
I'm still not sure what's going on with these builtins; are the calls
moved to the new tests valid?
Tested on powerpc64-linux with -m32 and -m64, with Zem's altivec.h
fix. OK for mainline?
2004-05-28 Janis Johnson <janis187@us.ibm.com>
* gcc.dg/vmx/ops.c: Remove failing lines.
* gcc.dg/vmx/ops-2.c: New test.
* gcc.dg/vmx/ops-3.c: New test.
Index: ops.c
===================================================================
RCS file: /cvs/gcc/gcc/gcc/testsuite/gcc.dg/vmx/ops.c,v
retrieving revision 1.1
diff -u -p -r1.1 ops.c
--- ops.c 18 Apr 2004 01:01:40 -0000 1.1
+++ ops.c 28 May 2004 21:36:24 -0000
@@ -1,6 +1,10 @@
+/* Several checks have been moved to new tests ops-2.c and ops-3.c. */
+
/* { dg-do compile } */
+
#include <altivec.h>
#include <stdlib.h>
+
extern char * *var_char_ptr;
extern float * *var_float_ptr;
extern int * *var_int_ptr;
@@ -47,6 +51,7 @@ extern vector unsigned int *var_vec_u32;
extern vector unsigned short * *var_vec_u16_ptr;
extern vector unsigned short *var_vec_u16;
extern vector unsigned short *var_volatile_vec_u16;
+
void f0() {
*var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_s16[1]);
*var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_u16[1]);
@@ -376,54 +381,17 @@ void f3() {
*var_vec_b16++ = vec_vcmpequh(var_vec_u16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_vcmpgtsh(var_vec_s16[0], var_vec_s16[1]);
*var_vec_b16++ = vec_vcmpgtuh(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]);
- *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b16++ = vec_vnor(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b16++ = vec_vor(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b16++ = vec_vperm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]);
- *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]);
*var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]);
*var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u8[1]);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]);
- *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]);
- *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]);
*var_vec_b16++ = vec_vxor(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b16++ = vec_xor(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b32++ = vec_and(var_vec_b32[0], var_vec_b32[1]);
@@ -497,8 +465,6 @@ void f4() {
*var_vec_b32++ = vec_vcmpgtfp(var_vec_f32[0], var_vec_f32[1]);
*var_vec_b32++ = vec_vcmpgtsw(var_vec_s32[0], var_vec_s32[1]);
*var_vec_b32++ = vec_vcmpgtuw(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]);
- *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b32++ = vec_vnor(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b32++ = vec_vor(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b32++ = vec_vperm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]);
@@ -507,43 +473,9 @@ void f4() {
*var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u8[1]);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]);
- *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]);
- *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]);
*var_vec_b32++ = vec_vxor(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b32++ = vec_xor(var_vec_b32[0], var_vec_b32[1]);
*var_vec_b8++ = vec_and(var_vec_b8[0], var_vec_b8[1]);
@@ -610,49 +542,14 @@ void f5() {
*var_vec_b8++ = vec_vcmpequb(var_vec_u8[0], var_vec_u8[1]);
*var_vec_b8++ = vec_vcmpgtsb(var_vec_s8[0], var_vec_s8[1]);
*var_vec_b8++ = vec_vcmpgtub(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]);
- *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]);
*var_vec_b8++ = vec_vnor(var_vec_b8[0], var_vec_b8[1]);
*var_vec_b8++ = vec_vor(var_vec_b8[0], var_vec_b8[1]);
*var_vec_b8++ = vec_vperm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
- *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]);
*var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]);
*var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
*var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]);
@@ -929,38 +826,6 @@ void f8() {
*var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 15);
*var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_u8[1]);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]);
*var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]);
@@ -1038,8 +903,6 @@ void f9() {
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]);
*var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_s8[1]);
*var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_u8[1]);
- *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]);
- *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]);
*var_vec_p16++ = vec_vperm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]);
*var_vec_p16++ = vec_vpkpx(var_vec_u32[0], var_vec_u32[1]);
*var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u16[1]);
@@ -1063,40 +926,8 @@ void f9() {
*var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 15);
*var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_s8[1]);
*var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_u8[1]);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2);
}
void f10() {
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]);
@@ -1253,28 +1084,11 @@ void f11() {
*var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_s16[1]);
*var_vec_s16++ = vec_unpackh(var_vec_s8[0]);
*var_vec_s16++ = vec_unpackl(var_vec_s8[0]);
- *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]);
- *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]);
- *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]);
- *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]);
- *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]);
}
void f12() {
*var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_s16[1]);
*var_vec_s16++ = vec_vmhaddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
*var_vec_s16++ = vec_vmhraddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
- *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]);
*var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_s16[1]);
*var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
*var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]);
@@ -1315,38 +1129,6 @@ void f12() {
*var_vec_s16++ = vec_vslh(var_vec_s16[0], var_vec_u16[1]);
*var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_s8[1]);
*var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_u8[1]);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
*var_vec_s16++ = vec_vspltish( 0);
*var_vec_s16++ = vec_vspltish( 1);
*var_vec_s16++ = vec_vspltish( 2);
@@ -1388,11 +1170,7 @@ void f13() {
*var_vec_s16++ = vec_vsrh(var_vec_s16[0], var_vec_u16[1]);
*var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_s8[1]);
*var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_u8[1]);
- *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]);
*var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]);
- *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]);
*var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_s16[1]);
*var_vec_s16++ = vec_vupkhsb(var_vec_s8[0]);
*var_vec_s16++ = vec_vupklsb(var_vec_s8[0]);
@@ -1594,11 +1372,7 @@ void f15() {
*var_vec_s32++ = vec_sums(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_unpackh(var_vec_s16[0]);
*var_vec_s32++ = vec_unpackl(var_vec_s16[0]);
- *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vand(var_vec_b32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_b32[1]);
@@ -1640,11 +1414,7 @@ void f15() {
*var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 29);
*var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 30);
*var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 31);
- *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vmrghw(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vmrglw(var_vec_s32[0], var_vec_s32[1]);
@@ -1717,38 +1487,6 @@ void f16() {
*var_vec_s32++ = vec_vspltisw(-14);
*var_vec_s32++ = vec_vspltisw(-15);
*var_vec_s32++ = vec_vspltisw(-16);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]);
@@ -1756,11 +1494,7 @@ void f16() {
*var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_s8[1]);
*var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_u8[1]);
*var_vec_s32++ = vec_vsrw(var_vec_s32[0], var_vec_u32[1]);
- *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]);
- *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]);
*var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vsum2sws(var_vec_s32[0], var_vec_s32[1]);
*var_vec_s32++ = vec_vsum4sbs(var_vec_s8[0], var_vec_s32[1]);
@@ -1918,11 +1652,7 @@ void f18() {
*var_vec_s8++ = vec_subs(var_vec_b8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vand(var_vec_b8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_b8[1]);
@@ -1931,11 +1661,7 @@ void f18() {
*var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vavgsb(var_vec_s8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vmrghb(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vmrglb(var_vec_s8[0], var_vec_s8[1]);
@@ -2044,11 +1770,7 @@ void f19() {
*var_vec_s8++ = vec_vsrb(var_vec_s8[0], var_vec_u8[1]);
*var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_u8[1]);
- *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]);
- *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]);
*var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vxor(var_vec_b8[0], var_vec_s8[1]);
*var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_b8[1]);
@@ -2205,11 +1927,7 @@ void f21() {
*var_vec_u16++ = vec_subs(var_vec_b16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vadduhm(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vadduhs(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vand(var_vec_b16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vand(var_vec_u16[0], var_vec_b16[1]);
@@ -2218,11 +1936,7 @@ void f21() {
*var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vavguh(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vmaxuh(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vminuh(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vmladduhm(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
*var_vec_u16++ = vec_vmrghh(var_vec_u16[0], var_vec_u16[1]);
@@ -2262,40 +1976,8 @@ void f21() {
*var_vec_u16++ = vec_vslh(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_s8[1]);
*var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_u8[1]);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 0);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 1);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 2);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 3);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 4);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
}
void f22() {
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u32[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u8[1]);
@@ -2303,11 +1985,7 @@ void f22() {
*var_vec_u16++ = vec_vsrh(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_s8[1]);
*var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_u8[1]);
- *var_vec_u16++ = vec_vsubuhm(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vsubuhs(var_vec_b16[0], var_vec_u16[1]);
- *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_b16[1]);
*var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vxor(var_vec_b16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vxor(var_vec_u16[0], var_vec_b16[1]);
@@ -2506,11 +2184,7 @@ void f24() {
*var_vec_u32++ = vec_unpackh(var_vec_p16[0]);
*var_vec_u32++ = vec_unpackl(var_vec_p16[0]);
*var_vec_u32++ = vec_vaddcuw(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vadduwm(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vadduws(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vand(var_vec_b32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vand(var_vec_u32[0], var_vec_b32[1]);
@@ -2551,11 +2225,7 @@ void f24() {
*var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 29);
*var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 30);
*var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 31);
- *var_vec_u32++ = vec_vmaxuw(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vminuw(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vmrghw(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vmrglw(var_vec_u32[0], var_vec_u32[1]);
@@ -2596,38 +2266,6 @@ void f25() {
*var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_s8[1]);
*var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_u8[1]);
*var_vec_u32++ = vec_vslw(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 0);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u16[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u8[1]);
@@ -2636,15 +2274,9 @@ void f25() {
*var_vec_u32++ = vec_vsro(var_vec_u32[0], var_vec_u8[1]);
*var_vec_u32++ = vec_vsrw(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vsubcuw(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vsubuwm(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vsubuws(var_vec_b32[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vsum4ubs(var_vec_u8[0], var_vec_u32[1]);
- *var_vec_u32++ = vec_vupkhpx(var_vec_p16[0]);
- *var_vec_u32++ = vec_vupklpx(var_vec_p16[0]);
*var_vec_u32++ = vec_vxor(var_vec_b32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_b32[1]);
*var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_u32[1]);
@@ -2815,11 +2447,7 @@ void f27() {
*var_vec_u8++ = vec_subs(var_vec_b8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vaddubm(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vaddubs(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vand(var_vec_b8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vand(var_vec_u8[0], var_vec_b8[1]);
@@ -2828,11 +2456,7 @@ void f27() {
*var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vavgub(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vmaxub(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vminub(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vmrghb(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vmrglb(var_vec_u8[0], var_vec_u8[1]);
@@ -2910,11 +2534,7 @@ void f28() {
*var_vec_u8++ = vec_vsrb(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_s8[1]);
*var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vsububm(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vsububs(var_vec_b8[0], var_vec_u8[1]);
- *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_b8[1]);
*var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vxor(var_vec_b8[0], var_vec_u8[1]);
*var_vec_u8++ = vec_vxor(var_vec_u8[0], var_vec_b8[1]);
@@ -3080,7 +2700,7 @@ void f29() {
if(!vec_any_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc24fr++;
if(!vec_any_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc24fr++;
if(!vec_any_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc24fr++;
- if(!vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++;
+ if(!vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++;
if(!vec_any_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc24fr++;
if(!vec_any_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc24fr++;
if(!vec_any_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
@@ -3799,14 +3419,12 @@ void f36() {
vec_st(var_vec_s16[0], var_int[1], var_short_ptr[2]);
vec_st(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
vec_st(var_vec_s32[0], var_int[1], var_int_ptr[2]);
- vec_st(var_vec_s32[0], var_int[1], var_long_ptr[2]);
vec_st(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
vec_st(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
vec_st(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
vec_st(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
vec_st(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
vec_st(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
- vec_st(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
vec_st(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
vec_st(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
vec_st(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3815,11 +3433,9 @@ void f36() {
}
void f37() {
vec_ste(var_vec_s32[0], var_int[1], var_int_ptr[2]);
- vec_ste(var_vec_s32[0], var_int[1], var_long_ptr[2]);
vec_ste(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
vec_ste(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
vec_ste(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
- vec_ste(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
vec_ste(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
vec_stl(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
vec_stl(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
@@ -3830,14 +3446,12 @@ void f37() {
vec_stl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
vec_stl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
vec_stl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
- vec_stl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
vec_stl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
vec_stl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
vec_stl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
vec_stl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
vec_stl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
vec_stl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
- vec_stl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
vec_stl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
vec_stl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
vec_stl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3859,14 +3473,12 @@ void f37() {
vec_stvx(var_vec_s16[0], var_int[1], var_short_ptr[2]);
vec_stvx(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
vec_stvx(var_vec_s32[0], var_int[1], var_int_ptr[2]);
- vec_stvx(var_vec_s32[0], var_int[1], var_long_ptr[2]);
vec_stvx(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
vec_stvx(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
vec_stvx(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
vec_stvx(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
vec_stvx(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
- vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
vec_stvx(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
vec_stvx(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
vec_stvx(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3879,14 +3491,12 @@ void f37() {
vec_stvxl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
vec_stvxl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
vec_stvxl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
- vec_stvxl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
vec_stvxl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
vec_stvxl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
vec_stvxl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
vec_stvxl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
vec_stvxl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
- vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
vec_stvxl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
vec_stvxl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
vec_stvxl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
--- empty 2004-05-28 14:35:00.000000000 -0700
+++ ops-2.c 2004-05-28 14:27:33.000000000 -0700
@@ -0,0 +1,462 @@
+/* Originally part of ops.c. */
+
+/* { dg-do compile } */
+
+#include <altivec.h>
+#include <stdlib.h>
+
+extern int *var_int;
+extern long * *var_long_ptr;
+extern short * *var_short_ptr;
+extern signed char * *var_signed_char_ptr;
+extern unsigned char * *var_unsigned_char_ptr;
+extern unsigned int * *var_unsigned_int_ptr;
+extern unsigned long * *var_unsigned_long_ptr;
+extern unsigned short * *var_unsigned_short_ptr;
+extern vector bool char * *var_vec_b8_ptr;
+extern vector bool char *var_vec_b8;
+extern vector bool int * *var_vec_b32_ptr;
+extern vector bool int *var_vec_b32;
+extern vector bool short * *var_vec_b16_ptr;
+extern vector bool short *var_vec_b16;
+extern vector float * *var_vec_f32_ptr;
+extern vector float *var_vec_f32;
+extern vector pixel * *var_vec_p16_ptr;
+extern vector pixel *var_vec_p16;
+extern vector signed char * *var_vec_s8_ptr;
+extern vector signed char *var_vec_s8;
+extern vector signed int * *var_vec_s32_ptr;
+extern vector signed int *var_vec_s32;
+extern vector signed short * *var_vec_s16_ptr;
+extern vector signed short *var_vec_s16;
+extern vector unsigned char * *var_vec_u8_ptr;
+extern vector unsigned char *var_vec_u8;
+extern vector unsigned int * *var_vec_u32_ptr;
+extern vector unsigned int *var_vec_u32;
+extern vector unsigned short * *var_vec_u16_ptr;
+extern vector unsigned short *var_vec_u16;
+extern vector unsigned short *var_volatile_vec_u16;
+
+void f0() {
+ *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]);
+ *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]);
+ *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
+ *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
+ *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]);
+ *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]);
+}
+void f4() {
+ *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]);
+ *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
+ *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
+ *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]);
+ *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]);
+}
+void f5() {
+ *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]);
+ *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]);
+ *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
+ *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
+}
+void f8() {
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
+ *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
+}
+void f9() {
+ *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]);
+ *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2);
+}
+void f10() {
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
+ *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
+}
+void f11() {
+ *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]);
+}
+void f12() {
+ *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
+ *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
+}
+void f13() {
+ *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]);
+ *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]);
+ *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]);
+}
+void f15() {
+ *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]);
+ *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]);
+ *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]);
+ *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]);
+}
+void f16() {
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
+ *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
+ *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]);
+ *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]);
+ *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]);
+}
+void f18() {
+ *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]);
+ *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]);
+ *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]);
+ *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]);
+}
+void f19() {
+ *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]);
+ *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]);
+ *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]);
+}
+void f21() {
+ *var_vec_u16++ = vec_vadduhm(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_b16[1]);
+ *var_vec_u16++ = vec_vadduhs(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_b16[1]);
+ *var_vec_u16++ = vec_vmaxuh(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_b16[1]);
+ *var_vec_u16++ = vec_vminuh(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_b16[1]);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 0);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 1);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 2);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 3);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 4);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
+}
+void f22() {
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
+ *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
+ *var_vec_u16++ = vec_vsubuhm(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_b16[1]);
+ *var_vec_u16++ = vec_vsubuhs(var_vec_b16[0], var_vec_u16[1]);
+ *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_b16[1]);
+}
+void f24() {
+ *var_vec_u32++ = vec_vadduwm(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_b32[1]);
+ *var_vec_u32++ = vec_vadduws(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_b32[1]);
+ *var_vec_u32++ = vec_vmaxuw(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_b32[1]);
+ *var_vec_u32++ = vec_vminuw(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_b32[1]);
+}
+void f25() {
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 0);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
+ *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
+ *var_vec_u32++ = vec_vsubuwm(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_b32[1]);
+ *var_vec_u32++ = vec_vsubuws(var_vec_b32[0], var_vec_u32[1]);
+ *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_b32[1]);
+ *var_vec_u32++ = vec_vupkhpx(var_vec_p16[0]);
+ *var_vec_u32++ = vec_vupklpx(var_vec_p16[0]);
+}
+void f27() {
+ *var_vec_u8++ = vec_vaddubm(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_b8[1]);
+ *var_vec_u8++ = vec_vaddubs(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_b8[1]);
+ *var_vec_u8++ = vec_vmaxub(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_b8[1]);
+ *var_vec_u8++ = vec_vminub(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_b8[1]);
+}
+void f28() {
+ *var_vec_u8++ = vec_vsububm(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_b8[1]);
+ *var_vec_u8++ = vec_vsububs(var_vec_b8[0], var_vec_u8[1]);
+ *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_b8[1]);
+}
--- empty 2004-05-28 14:35:00.000000000 -0700
+++ ops-3.c 2004-05-28 14:45:56.000000000 -0700
@@ -0,0 +1,27 @@
+/* Originally part of ops.c. */
+
+/* { dg-do compile } */
+
+#include <altivec.h>
+#include <stdlib.h>
+
+extern int *var_int;
+extern long * *var_long_ptr;
+extern unsigned long * *var_unsigned_long_ptr;
+extern vector signed int *var_vec_s32;
+extern vector unsigned int *var_vec_u32;
+
+void f36() {
+ vec_st(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+ vec_st(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+}
+void f37() {
+ vec_ste(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+ vec_ste(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+ vec_stl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+ vec_stl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+ vec_stvx(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+ vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+ vec_stvxl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+ vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+}