This is the mail archive of the gcc-patches@gcc.gnu.org mailing list for the GCC project.


Index Nav: [Date Index] [Subject Index] [Author Index] [Thread Index]
Message Nav: [Date Prev] [Date Next] [Thread Prev] [Thread Next]
Other format: [Raw text]

[PATCH] vmx testsuite: split up failing test ops.c


The test vmx/ops.c has about 400 failures with Zem's latest fix to
altivec.h (and lots more without it).  Those failures hide the 3000 or
so checks that pass.  This patch moves the failures to two new tests
so that ops.c itself will be able to find regressions while the other
checks still fail.

I'm still not sure what's going on with these builtins; are the calls
moved to the new tests valid?

Tested on powerpc64-linux with -m32 and -m64, with Zem's altivec.h
fix.  OK for mainline?

2004-05-28  Janis Johnson  <janis187@us.ibm.com>

	* gcc.dg/vmx/ops.c: Remove failing lines.
	* gcc.dg/vmx/ops-2.c: New test.
	* gcc.dg/vmx/ops-3.c: New test.

Index: ops.c
===================================================================
RCS file: /cvs/gcc/gcc/gcc/testsuite/gcc.dg/vmx/ops.c,v
retrieving revision 1.1
diff -u -p -r1.1 ops.c
--- ops.c	18 Apr 2004 01:01:40 -0000	1.1
+++ ops.c	28 May 2004 21:36:24 -0000
@@ -1,6 +1,10 @@
+/* Several checks have been moved to new tests ops-2.c and ops-3.c.  */
+
 /* { dg-do compile } */
+
 #include <altivec.h>
 #include <stdlib.h>
+
 extern char * *var_char_ptr;
 extern float * *var_float_ptr;
 extern int * *var_int_ptr;
@@ -47,6 +51,7 @@ extern vector unsigned int *var_vec_u32;
 extern vector unsigned short * *var_vec_u16_ptr;
 extern vector unsigned short *var_vec_u16;
 extern vector unsigned short *var_volatile_vec_u16;
+
 void f0() {
   *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_s16[1]);
   *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_u16[1]);
@@ -376,54 +381,17 @@ void f3() {
   *var_vec_b16++ = vec_vcmpequh(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_b16++ = vec_vcmpgtsh(var_vec_s16[0], var_vec_s16[1]);
   *var_vec_b16++ = vec_vcmpgtuh(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]);
-  *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b16++ = vec_vnor(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b16++ = vec_vor(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b16++ = vec_vperm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]);
-  *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]);
   *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]);
   *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u16[1]);
   *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u32[1]);
   *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u8[1]);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
-  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
   *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]);
   *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]);
   *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]);
-  *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]);
-  *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]);
   *var_vec_b16++ = vec_vxor(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b16++ = vec_xor(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b32++ = vec_and(var_vec_b32[0], var_vec_b32[1]);
@@ -497,8 +465,6 @@ void f4() {
   *var_vec_b32++ = vec_vcmpgtfp(var_vec_f32[0], var_vec_f32[1]);
   *var_vec_b32++ = vec_vcmpgtsw(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_b32++ = vec_vcmpgtuw(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]);
-  *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b32++ = vec_vnor(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b32++ = vec_vor(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b32++ = vec_vperm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]);
@@ -507,43 +473,9 @@ void f4() {
   *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u16[1]);
   *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u32[1]);
   *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u8[1]);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
-  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
   *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]);
   *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]);
   *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]);
-  *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]);
-  *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]);
   *var_vec_b32++ = vec_vxor(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b32++ = vec_xor(var_vec_b32[0], var_vec_b32[1]);
   *var_vec_b8++ = vec_and(var_vec_b8[0], var_vec_b8[1]);
@@ -610,49 +542,14 @@ void f5() {
   *var_vec_b8++ = vec_vcmpequb(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_b8++ = vec_vcmpgtsb(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_b8++ = vec_vcmpgtub(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]);
-  *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]);
   *var_vec_b8++ = vec_vnor(var_vec_b8[0], var_vec_b8[1]);
   *var_vec_b8++ = vec_vor(var_vec_b8[0], var_vec_b8[1]);
   *var_vec_b8++ = vec_vperm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
-  *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]);
   *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]);
   *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
   *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u16[1]);
   *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u32[1]);
   *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
-  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
   *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]);
   *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]);
   *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]);
@@ -929,38 +826,6 @@ void f8() {
   *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 15);
   *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_s8[1]);
   *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_u8[1]);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
-  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
   *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]);
   *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]);
   *var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]);
@@ -1038,8 +903,6 @@ void f9() {
   *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]);
   *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_s8[1]);
   *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_u8[1]);
-  *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]);
-  *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]);
   *var_vec_p16++ = vec_vperm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]);
   *var_vec_p16++ = vec_vpkpx(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u16[1]);
@@ -1063,40 +926,8 @@ void f9() {
   *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 15);
   *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_s8[1]);
   *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_u8[1]);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2);
 }
 void f10() {
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
-  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
   *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]);
   *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]);
   *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]);
@@ -1253,28 +1084,11 @@ void f11() {
   *var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_s16[1]);
   *var_vec_s16++ = vec_unpackh(var_vec_s8[0]);
   *var_vec_s16++ = vec_unpackl(var_vec_s8[0]);
-  *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]);
-  *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]);
-  *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]);
-  *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]);
-  *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]);
 }
 void f12() {
   *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_s16[1]);
   *var_vec_s16++ = vec_vmhaddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
   *var_vec_s16++ = vec_vmhraddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
-  *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]);
   *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_s16[1]);
   *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
   *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]);
@@ -1315,38 +1129,6 @@ void f12() {
   *var_vec_s16++ = vec_vslh(var_vec_s16[0], var_vec_u16[1]);
   *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_s8[1]);
   *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_u8[1]);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
-  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
   *var_vec_s16++ = vec_vspltish( 0);
   *var_vec_s16++ = vec_vspltish( 1);
   *var_vec_s16++ = vec_vspltish( 2);
@@ -1388,11 +1170,7 @@ void f13() {
   *var_vec_s16++ = vec_vsrh(var_vec_s16[0], var_vec_u16[1]);
   *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_s8[1]);
   *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_u8[1]);
-  *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]);
   *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]);
-  *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]);
   *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_s16[1]);
   *var_vec_s16++ = vec_vupkhsb(var_vec_s8[0]);
   *var_vec_s16++ = vec_vupklsb(var_vec_s8[0]);
@@ -1594,11 +1372,7 @@ void f15() {
   *var_vec_s32++ = vec_sums(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_unpackh(var_vec_s16[0]);
   *var_vec_s32++ = vec_unpackl(var_vec_s16[0]);
-  *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vand(var_vec_b32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_b32[1]);
@@ -1640,11 +1414,7 @@ void f15() {
   *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 29);
   *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 30);
   *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 31);
-  *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vmrghw(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vmrglw(var_vec_s32[0], var_vec_s32[1]);
@@ -1717,38 +1487,6 @@ void f16() {
   *var_vec_s32++ = vec_vspltisw(-14);
   *var_vec_s32++ = vec_vspltisw(-15);
   *var_vec_s32++ = vec_vspltisw(-16);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
-  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
   *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]);
   *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]);
   *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]);
@@ -1756,11 +1494,7 @@ void f16() {
   *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_s8[1]);
   *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_u8[1]);
   *var_vec_s32++ = vec_vsrw(var_vec_s32[0], var_vec_u32[1]);
-  *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]);
-  *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]);
   *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vsum2sws(var_vec_s32[0], var_vec_s32[1]);
   *var_vec_s32++ = vec_vsum4sbs(var_vec_s8[0], var_vec_s32[1]);
@@ -1918,11 +1652,7 @@ void f18() {
   *var_vec_s8++ = vec_subs(var_vec_b8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vand(var_vec_b8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_b8[1]);
@@ -1931,11 +1661,7 @@ void f18() {
   *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vavgsb(var_vec_s8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vmrghb(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vmrglb(var_vec_s8[0], var_vec_s8[1]);
@@ -2044,11 +1770,7 @@ void f19() {
   *var_vec_s8++ = vec_vsrb(var_vec_s8[0], var_vec_u8[1]);
   *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_u8[1]);
-  *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]);
-  *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]);
   *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vxor(var_vec_b8[0], var_vec_s8[1]);
   *var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_b8[1]);
@@ -2205,11 +1927,7 @@ void f21() {
   *var_vec_u16++ = vec_subs(var_vec_b16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vadduhm(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vadduhs(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vand(var_vec_b16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vand(var_vec_u16[0], var_vec_b16[1]);
@@ -2218,11 +1936,7 @@ void f21() {
   *var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vavguh(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vmaxuh(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vminuh(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vmladduhm(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
   *var_vec_u16++ = vec_vmrghh(var_vec_u16[0], var_vec_u16[1]);
@@ -2262,40 +1976,8 @@ void f21() {
   *var_vec_u16++ = vec_vslh(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_s8[1]);
   *var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_u8[1]);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 0);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 1);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 2);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 3);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 4);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
 }
 void f22() {
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
-  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
   *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u32[1]);
   *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u8[1]);
@@ -2303,11 +1985,7 @@ void f22() {
   *var_vec_u16++ = vec_vsrh(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_s8[1]);
   *var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_u8[1]);
-  *var_vec_u16++ = vec_vsubuhm(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vsubuhs(var_vec_b16[0], var_vec_u16[1]);
-  *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_b16[1]);
   *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vxor(var_vec_b16[0], var_vec_u16[1]);
   *var_vec_u16++ = vec_vxor(var_vec_u16[0], var_vec_b16[1]);
@@ -2506,11 +2184,7 @@ void f24() {
   *var_vec_u32++ = vec_unpackh(var_vec_p16[0]);
   *var_vec_u32++ = vec_unpackl(var_vec_p16[0]);
   *var_vec_u32++ = vec_vaddcuw(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vadduwm(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vadduws(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vand(var_vec_b32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vand(var_vec_u32[0], var_vec_b32[1]);
@@ -2551,11 +2225,7 @@ void f24() {
   *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 29);
   *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 30);
   *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 31);
-  *var_vec_u32++ = vec_vmaxuw(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vminuw(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vmrghw(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vmrglw(var_vec_u32[0], var_vec_u32[1]);
@@ -2596,38 +2266,6 @@ void f25() {
   *var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_s8[1]);
   *var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_u8[1]);
   *var_vec_u32++ = vec_vslw(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 0);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
-  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
   *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u16[1]);
   *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u8[1]);
@@ -2636,15 +2274,9 @@ void f25() {
   *var_vec_u32++ = vec_vsro(var_vec_u32[0], var_vec_u8[1]);
   *var_vec_u32++ = vec_vsrw(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vsubcuw(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vsubuwm(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vsubuws(var_vec_b32[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vsum4ubs(var_vec_u8[0], var_vec_u32[1]);
-  *var_vec_u32++ = vec_vupkhpx(var_vec_p16[0]);
-  *var_vec_u32++ = vec_vupklpx(var_vec_p16[0]);
   *var_vec_u32++ = vec_vxor(var_vec_b32[0], var_vec_u32[1]);
   *var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_b32[1]);
   *var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_u32[1]);
@@ -2815,11 +2447,7 @@ void f27() {
   *var_vec_u8++ = vec_subs(var_vec_b8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vaddubm(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vaddubs(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vand(var_vec_b8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vand(var_vec_u8[0], var_vec_b8[1]);
@@ -2828,11 +2456,7 @@ void f27() {
   *var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vavgub(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vmaxub(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vminub(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vmrghb(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vmrglb(var_vec_u8[0], var_vec_u8[1]);
@@ -2910,11 +2534,7 @@ void f28() {
   *var_vec_u8++ = vec_vsrb(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_s8[1]);
   *var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vsububm(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vsububs(var_vec_b8[0], var_vec_u8[1]);
-  *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_b8[1]);
   *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vxor(var_vec_b8[0], var_vec_u8[1]);
   *var_vec_u8++ = vec_vxor(var_vec_u8[0], var_vec_b8[1]);
@@ -3080,7 +2700,7 @@ void f29() {
   if(!vec_any_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc24fr++;
   if(!vec_any_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc24fr++;
   if(!vec_any_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc24fr++;
-  if(!vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++;
+  if(!vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++; 
   if(!vec_any_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc24fr++;
   if(!vec_any_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc24fr++;
   if(!vec_any_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
@@ -3799,14 +3419,12 @@ void f36() {
   vec_st(var_vec_s16[0], var_int[1], var_short_ptr[2]);
   vec_st(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
   vec_st(var_vec_s32[0], var_int[1], var_int_ptr[2]);
-  vec_st(var_vec_s32[0], var_int[1], var_long_ptr[2]);
   vec_st(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
   vec_st(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
   vec_st(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
   vec_st(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
   vec_st(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
   vec_st(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
-  vec_st(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
   vec_st(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
   vec_st(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
   vec_st(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3815,11 +3433,9 @@ void f36() {
 }
 void f37() {
   vec_ste(var_vec_s32[0], var_int[1], var_int_ptr[2]);
-  vec_ste(var_vec_s32[0], var_int[1], var_long_ptr[2]);
   vec_ste(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
   vec_ste(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
   vec_ste(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
-  vec_ste(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
   vec_ste(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
   vec_stl(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
   vec_stl(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
@@ -3830,14 +3446,12 @@ void f37() {
   vec_stl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
   vec_stl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
   vec_stl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
-  vec_stl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
   vec_stl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
   vec_stl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
   vec_stl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
   vec_stl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
   vec_stl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
   vec_stl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
-  vec_stl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
   vec_stl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
   vec_stl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
   vec_stl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3859,14 +3473,12 @@ void f37() {
   vec_stvx(var_vec_s16[0], var_int[1], var_short_ptr[2]);
   vec_stvx(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
   vec_stvx(var_vec_s32[0], var_int[1], var_int_ptr[2]);
-  vec_stvx(var_vec_s32[0], var_int[1], var_long_ptr[2]);
   vec_stvx(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
   vec_stvx(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
   vec_stvx(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
   vec_stvx(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
   vec_stvx(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
   vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
-  vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
   vec_stvx(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
   vec_stvx(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
   vec_stvx(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
@@ -3879,14 +3491,12 @@ void f37() {
   vec_stvxl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
   vec_stvxl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
   vec_stvxl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
-  vec_stvxl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
   vec_stvxl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
   vec_stvxl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
   vec_stvxl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
   vec_stvxl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
   vec_stvxl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
   vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
-  vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
   vec_stvxl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
   vec_stvxl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
   vec_stvxl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
--- empty	2004-05-28 14:35:00.000000000 -0700
+++ ops-2.c	2004-05-28 14:27:33.000000000 -0700
@@ -0,0 +1,462 @@
+/* Originally part of ops.c.  */
+
+/* { dg-do compile } */
+
+#include <altivec.h>
+#include <stdlib.h>
+
+extern int *var_int;
+extern long * *var_long_ptr;
+extern short * *var_short_ptr;
+extern signed char * *var_signed_char_ptr;
+extern unsigned char * *var_unsigned_char_ptr;
+extern unsigned int * *var_unsigned_int_ptr;
+extern unsigned long * *var_unsigned_long_ptr;
+extern unsigned short * *var_unsigned_short_ptr;
+extern vector bool char * *var_vec_b8_ptr;
+extern vector bool char *var_vec_b8;
+extern vector bool int * *var_vec_b32_ptr;
+extern vector bool int *var_vec_b32;
+extern vector bool short * *var_vec_b16_ptr;
+extern vector bool short *var_vec_b16;
+extern vector float * *var_vec_f32_ptr;
+extern vector float *var_vec_f32;
+extern vector pixel * *var_vec_p16_ptr;
+extern vector pixel *var_vec_p16;
+extern vector signed char * *var_vec_s8_ptr;
+extern vector signed char *var_vec_s8;
+extern vector signed int * *var_vec_s32_ptr;
+extern vector signed int *var_vec_s32;
+extern vector signed short * *var_vec_s16_ptr;
+extern vector signed short *var_vec_s16;
+extern vector unsigned char * *var_vec_u8_ptr;
+extern vector unsigned char *var_vec_u8;
+extern vector unsigned int * *var_vec_u32_ptr;
+extern vector unsigned int *var_vec_u32;
+extern vector unsigned short * *var_vec_u16_ptr;
+extern vector unsigned short *var_vec_u16;
+extern vector unsigned short *var_volatile_vec_u16;
+
+void f0() {
+  *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]);
+  *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]);
+  *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
+  *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
+  *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]);
+  *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]);
+}
+void f4() {
+  *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]);
+  *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
+  *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
+  *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]);
+  *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]);
+}
+void f5() {
+  *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]);
+  *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]);
+  *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
+  *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
+}
+void f8() {
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
+  *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
+}
+void f9() {
+  *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]);
+  *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2);
+}
+void f10() {
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
+  *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
+}
+void f11() {
+  *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]);
+}
+void f12() {
+  *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
+  *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
+}
+void f13() {
+  *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]);
+  *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]);
+  *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]);
+}
+void f15() {
+  *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]);
+  *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]);
+  *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]);
+  *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]);
+}
+void f16() {
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
+  *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
+  *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]);
+  *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]);
+  *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]);
+}
+void f18() {
+  *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]);
+  *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]);
+  *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]);
+  *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]);
+}
+void f19() {
+  *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]);
+  *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]);
+  *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]);
+}
+void f21() {
+  *var_vec_u16++ = vec_vadduhm(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_b16[1]);
+  *var_vec_u16++ = vec_vadduhs(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_b16[1]);
+  *var_vec_u16++ = vec_vmaxuh(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_b16[1]);
+  *var_vec_u16++ = vec_vminuh(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_b16[1]);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 0);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 1);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 2);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 3);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 4);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
+}
+void f22() {
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
+  *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
+  *var_vec_u16++ = vec_vsubuhm(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_b16[1]);
+  *var_vec_u16++ = vec_vsubuhs(var_vec_b16[0], var_vec_u16[1]);
+  *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_b16[1]);
+}
+void f24() {
+  *var_vec_u32++ = vec_vadduwm(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_b32[1]);
+  *var_vec_u32++ = vec_vadduws(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_b32[1]);
+  *var_vec_u32++ = vec_vmaxuw(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_b32[1]);
+  *var_vec_u32++ = vec_vminuw(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_b32[1]);
+}
+void f25() {
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 0);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
+  *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
+  *var_vec_u32++ = vec_vsubuwm(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_b32[1]);
+  *var_vec_u32++ = vec_vsubuws(var_vec_b32[0], var_vec_u32[1]);
+  *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_b32[1]);
+  *var_vec_u32++ = vec_vupkhpx(var_vec_p16[0]);
+  *var_vec_u32++ = vec_vupklpx(var_vec_p16[0]);
+}
+void f27() {
+  *var_vec_u8++ = vec_vaddubm(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_b8[1]);
+  *var_vec_u8++ = vec_vaddubs(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_b8[1]);
+  *var_vec_u8++ = vec_vmaxub(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_b8[1]);
+  *var_vec_u8++ = vec_vminub(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_b8[1]);
+}
+void f28() {
+  *var_vec_u8++ = vec_vsububm(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_b8[1]);
+  *var_vec_u8++ = vec_vsububs(var_vec_b8[0], var_vec_u8[1]);
+  *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_b8[1]);
+}
--- empty	2004-05-28 14:35:00.000000000 -0700
+++ ops-3.c	2004-05-28 14:45:56.000000000 -0700
@@ -0,0 +1,27 @@
+/* Originally part of ops.c.  */
+
+/* { dg-do compile } */
+
+#include <altivec.h>
+#include <stdlib.h>
+
+extern int *var_int;
+extern long * *var_long_ptr;
+extern unsigned long * *var_unsigned_long_ptr;
+extern vector signed int *var_vec_s32;
+extern vector unsigned int *var_vec_u32;
+
+void f36() {
+  vec_st(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+  vec_st(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+}
+void f37() {
+  vec_ste(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+  vec_ste(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+  vec_stl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+  vec_stl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+  vec_stvx(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+  vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+  vec_stvxl(var_vec_s32[0], var_int[1], var_long_ptr[2]);
+  vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_long_ptr[2]);
+}


Index Nav: [Date Index] [Subject Index] [Author Index] [Thread Index]
Message Nav: [Date Prev] [Date Next] [Thread Prev] [Thread Next]