llvm-6502/test/Analysis/CostModel/X86/uitofp.ll
Quentin Colombet 8201185d61 [X86] Custom lower UINT_TO_FP from v4f32 to v4i32, and for v8f32 to v8i32 if
AVX2 is available.
According to IACA, the new lowering has a throughput of 8 cycles instead of 13
with the previous one.

Althought this lowering kicks in some SPECs benchmarks, the performance
improvement was within the noise.

Correctness testing has been done for the whole range of uint32_t with the
following program:
    uint4 v = (uint4) {0,1,2,3};
    uint32_t i;
    
    //Check correctness over entire range for uint4 -> float4 conversion
    for( i = 0; i < 1U << (32-2); i++ )
    {
        float4 t = test(v);
        float4 c = correct(v);
        
        if( 0xf != _mm_movemask_ps( t == c ))
        {
            printf( "Error @ %vx: %vf vs. %vf\n", v, c, t);
            return -1;
        }
        
        v += 4;
    }
Where "correct" is the old lowering and "test" the new one.

The patch adds a test case for the two custom lowering instruction.
It also modifies the vector cost model, which is why cast.ll and uitofp.ll are
modified.
2009-02-26-MachineLICMBug.ll is also modified because we now hoist 7
instructions instead of 4 (3 more constant loads).

rdar://problem/18153096>


git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@221657 91177308-0d34-0410-b5e6-96231b3b80d8
2014-11-11 02:23:47 +00:00

369 lines
10 KiB
LLVM

; RUN: llc -mtriple=x86_64-apple-darwin -mcpu=core2 < %s | FileCheck --check-prefix=SSE2-CODEGEN %s
; RUN: opt -mtriple=x86_64-apple-darwin -mcpu=core2 -cost-model -analyze < %s | FileCheck --check-prefix=SSE2 %s
; In X86TargetTransformInfo::getCastInstrCost we have code that depends on
; getSimpleVT on a value type. On AVX2 we execute this code. Make sure we exit
; early if the type is not a simple value type before we call this function.
; RUN: opt -mtriple=x86_64-apple-darwin -mcpu=core-avx2 -cost-model -analyze < %s
define <2 x double> @uitofpv2i8v2double(<2 x i8> %a) {
; SSE2: uitofpv2i8v2double
; SSE2: cost of 20 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv2i8v2double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <2 x i8> %a to <2 x double>
ret <2 x double> %1
}
define <4 x double> @uitofpv4i8v4double(<4 x i8> %a) {
; SSE2: uitofpv4i8v4double
; SSE2: cost of 40 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv4i8v4double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <4 x i8> %a to <4 x double>
ret <4 x double> %1
}
define <8 x double> @uitofpv8i8v8double(<8 x i8> %a) {
; SSE2: uitofpv8i8v8double
; SSE2: cost of 80 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv8i8v8double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <8 x i8> %a to <8 x double>
ret <8 x double> %1
}
define <16 x double> @uitofpv16i8v16double(<16 x i8> %a) {
; SSE2: uitofpv16i8v16double
; SSE2: cost of 160 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv16i8v16double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <16 x i8> %a to <16 x double>
ret <16 x double> %1
}
define <32 x double> @uitofpv32i8v32double(<32 x i8> %a) {
; SSE2: uitofpv32i8v32double
; SSE2: cost of 320 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv32i8v32double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <32 x i8> %a to <32 x double>
ret <32 x double> %1
}
define <2 x double> @uitofpv2i16v2double(<2 x i16> %a) {
; SSE2: uitofpv2i16v2double
; SSE2: cost of 20 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv2i16v2double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <2 x i16> %a to <2 x double>
ret <2 x double> %1
}
define <4 x double> @uitofpv4i16v4double(<4 x i16> %a) {
; SSE2: uitofpv4i16v4double
; SSE2: cost of 40 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv4i16v4double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <4 x i16> %a to <4 x double>
ret <4 x double> %1
}
define <8 x double> @uitofpv8i16v8double(<8 x i16> %a) {
; SSE2: uitofpv8i16v8double
; SSE2: cost of 80 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv8i16v8double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <8 x i16> %a to <8 x double>
ret <8 x double> %1
}
define <16 x double> @uitofpv16i16v16double(<16 x i16> %a) {
; SSE2: uitofpv16i16v16double
; SSE2: cost of 160 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv16i16v16double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <16 x i16> %a to <16 x double>
ret <16 x double> %1
}
define <32 x double> @uitofpv32i16v32double(<32 x i16> %a) {
; SSE2: uitofpv32i16v32double
; SSE2: cost of 320 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv32i16v32double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <32 x i16> %a to <32 x double>
ret <32 x double> %1
}
define <2 x double> @uitofpv2i32v2double(<2 x i32> %a) {
; SSE2: uitofpv2i32v2double
; SSE2: cost of 20 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv2i32v2double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <2 x i32> %a to <2 x double>
ret <2 x double> %1
}
define <4 x double> @uitofpv4i32v4double(<4 x i32> %a) {
; SSE2: uitofpv4i32v4double
; SSE2: cost of 40 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv4i32v4double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <4 x i32> %a to <4 x double>
ret <4 x double> %1
}
define <8 x double> @uitofpv8i32v8double(<8 x i32> %a) {
; SSE2: uitofpv8i32v8double
; SSE2: cost of 80 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv8i32v8double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <8 x i32> %a to <8 x double>
ret <8 x double> %1
}
define <16 x double> @uitofpv16i32v16double(<16 x i32> %a) {
; SSE2: uitofpv16i32v16double
; SSE2: cost of 160 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv16i32v16double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <16 x i32> %a to <16 x double>
ret <16 x double> %1
}
define <32 x double> @uitofpv32i32v32double(<32 x i32> %a) {
; SSE2: uitofpv32i32v32double
; SSE2: cost of 320 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv32i32v32double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <32 x i32> %a to <32 x double>
ret <32 x double> %1
}
define <2 x double> @uitofpv2i64v2double(<2 x i64> %a) {
; SSE2: uitofpv2i64v2double
; SSE2: cost of 20 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv2i64v2double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <2 x i64> %a to <2 x double>
ret <2 x double> %1
}
define <4 x double> @uitofpv4i64v4double(<4 x i64> %a) {
; SSE2: uitofpv4i64v4double
; SSE2: cost of 40 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv4i64v4double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <4 x i64> %a to <4 x double>
ret <4 x double> %1
}
define <8 x double> @uitofpv8i64v8double(<8 x i64> %a) {
%1 = uitofp <8 x i64> %a to <8 x double>
; SSE2: uitofpv8i64v8double
; SSE2: cost of 80 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv8i64v8double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
ret <8 x double> %1
}
define <16 x double> @uitofpv16i64v16double(<16 x i64> %a) {
; SSE2: uitofpv16i64v16double
; SSE2: cost of 160 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv16i64v16double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <16 x i64> %a to <16 x double>
ret <16 x double> %1
}
define <32 x double> @uitofpv32i64v32double(<32 x i64> %a) {
; SSE2: uitofpv32i64v32double
; SSE2: cost of 320 {{.*}} uitofp
; SSE2-CODEGEN: uitofpv32i64v32double
; SSE2-CODEGEN: movapd LCPI
; SSE2-CODEGEN: subpd
; SSE2-CODEGEN: addpd
%1 = uitofp <32 x i64> %a to <32 x double>
ret <32 x double> %1
}
define <2 x float> @uitofpv2i8v2float(<2 x i8> %a) {
; SSE2: uitofpv2i8v2float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <2 x i8> %a to <2 x float>
ret <2 x float> %1
}
define <4 x float> @uitofpv4i8v4float(<4 x i8> %a) {
; SSE2: uitofpv4i8v4float
; SSE2: cost of 8 {{.*}} uitofp
%1 = uitofp <4 x i8> %a to <4 x float>
ret <4 x float> %1
}
define <8 x float> @uitofpv8i8v8float(<8 x i8> %a) {
; SSE2: uitofpv8i8v8float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <8 x i8> %a to <8 x float>
ret <8 x float> %1
}
define <16 x float> @uitofpv16i8v16float(<16 x i8> %a) {
; SSE2: uitofpv16i8v16float
; SSE2: cost of 8 {{.*}} uitofp
%1 = uitofp <16 x i8> %a to <16 x float>
ret <16 x float> %1
}
define <32 x float> @uitofpv32i8v32float(<32 x i8> %a) {
; SSE2: uitofpv32i8v32float
; SSE2: cost of 16 {{.*}} uitofp
%1 = uitofp <32 x i8> %a to <32 x float>
ret <32 x float> %1
}
define <2 x float> @uitofpv2i16v2float(<2 x i16> %a) {
; SSE2: uitofpv2i16v2float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <2 x i16> %a to <2 x float>
ret <2 x float> %1
}
define <4 x float> @uitofpv4i16v4float(<4 x i16> %a) {
; SSE2: uitofpv4i16v4float
; SSE2: cost of 8 {{.*}} uitofp
%1 = uitofp <4 x i16> %a to <4 x float>
ret <4 x float> %1
}
define <8 x float> @uitofpv8i16v8float(<8 x i16> %a) {
; SSE2: uitofpv8i16v8float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <8 x i16> %a to <8 x float>
ret <8 x float> %1
}
define <16 x float> @uitofpv16i16v16float(<16 x i16> %a) {
; SSE2: uitofpv16i16v16float
; SSE2: cost of 30 {{.*}} uitofp
%1 = uitofp <16 x i16> %a to <16 x float>
ret <16 x float> %1
}
define <32 x float> @uitofpv32i16v32float(<32 x i16> %a) {
; SSE2: uitofpv32i16v32float
; SSE2: cost of 60 {{.*}} uitofp
%1 = uitofp <32 x i16> %a to <32 x float>
ret <32 x float> %1
}
define <2 x float> @uitofpv2i32v2float(<2 x i32> %a) {
; SSE2: uitofpv2i32v2float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <2 x i32> %a to <2 x float>
ret <2 x float> %1
}
define <4 x float> @uitofpv4i32v4float(<4 x i32> %a) {
; SSE2: uitofpv4i32v4float
; SSE2: cost of 8 {{.*}} uitofp
%1 = uitofp <4 x i32> %a to <4 x float>
ret <4 x float> %1
}
define <8 x float> @uitofpv8i32v8float(<8 x i32> %a) {
; SSE2: uitofpv8i32v8float
; SSE2: cost of 16 {{.*}} uitofp
%1 = uitofp <8 x i32> %a to <8 x float>
ret <8 x float> %1
}
define <16 x float> @uitofpv16i32v16float(<16 x i32> %a) {
; SSE2: uitofpv16i32v16float
; SSE2: cost of 32 {{.*}} uitofp
%1 = uitofp <16 x i32> %a to <16 x float>
ret <16 x float> %1
}
define <32 x float> @uitofpv32i32v32float(<32 x i32> %a) {
; SSE2: uitofpv32i32v32float
; SSE2: cost of 64 {{.*}} uitofp
%1 = uitofp <32 x i32> %a to <32 x float>
ret <32 x float> %1
}
define <2 x float> @uitofpv2i64v2float(<2 x i64> %a) {
; SSE2: uitofpv2i64v2float
; SSE2: cost of 15 {{.*}} uitofp
%1 = uitofp <2 x i64> %a to <2 x float>
ret <2 x float> %1
}
define <4 x float> @uitofpv4i64v4float(<4 x i64> %a) {
; SSE2: uitofpv4i64v4float
; SSE2: cost of 30 {{.*}} uitofp
%1 = uitofp <4 x i64> %a to <4 x float>
ret <4 x float> %1
}
define <8 x float> @uitofpv8i64v8float(<8 x i64> %a) {
; SSE2: uitofpv8i64v8float
; SSE2: cost of 60 {{.*}} uitofp
%1 = uitofp <8 x i64> %a to <8 x float>
ret <8 x float> %1
}
define <16 x float> @uitofpv16i64v16float(<16 x i64> %a) {
; SSE2: uitofpv16i64v16float
; SSE2: cost of 120 {{.*}} uitofp
%1 = uitofp <16 x i64> %a to <16 x float>
ret <16 x float> %1
}
define <32 x float> @uitofpv32i64v32float(<32 x i64> %a) {
; SSE2: uitofpv32i64v32float
; SSE2: cost of 240 {{.*}} uitofp
%1 = uitofp <32 x i64> %a to <32 x float>
ret <32 x float> %1
}