Dan Gohman | 36a0947 | 2009-09-08 23:54:48 +0000 | [diff] [blame] | 1 | ; RUN: llc < %s -mtriple=x86_64-apple-darwin10.0 -relocation-model=pic -disable-fp-elim -stats |& grep {Number of modref unfolded} |
Dale Johannesen | 2cf68d4 | 2009-04-18 02:01:23 +0000 | [diff] [blame] | 2 | ; XFAIL: * |
| 3 | ; 69408 removed the opportunity for this optimization to work |
Evan Cheng | 276b77e | 2009-04-17 01:29:40 +0000 | [diff] [blame] | 4 | |
| 5 | %struct.SHA512_CTX = type { [8 x i64], i64, i64, %struct.anon, i32, i32 } |
| 6 | %struct.anon = type { [16 x i64] } |
| 7 | @K512 = external constant [80 x i64], align 32 ; <[80 x i64]*> [#uses=2] |
| 8 | |
| 9 | define fastcc void @sha512_block_data_order(%struct.SHA512_CTX* nocapture %ctx, i8* nocapture %in, i64 %num) nounwind ssp { |
| 10 | entry: |
| 11 | br label %bb349 |
| 12 | |
| 13 | bb349: ; preds = %bb349, %entry |
| 14 | %e.0489 = phi i64 [ 0, %entry ], [ %e.0, %bb349 ] ; <i64> [#uses=3] |
| 15 | %b.0472 = phi i64 [ 0, %entry ], [ %87, %bb349 ] ; <i64> [#uses=2] |
| 16 | %asmtmp356 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 41, i64 %e.0489) nounwind ; <i64> [#uses=1] |
| 17 | %0 = xor i64 0, %asmtmp356 ; <i64> [#uses=1] |
| 18 | %1 = add i64 0, %0 ; <i64> [#uses=1] |
| 19 | %2 = add i64 %1, 0 ; <i64> [#uses=1] |
| 20 | %3 = add i64 %2, 0 ; <i64> [#uses=1] |
| 21 | %4 = add i64 %3, 0 ; <i64> [#uses=5] |
| 22 | %asmtmp372 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 %4) nounwind ; <i64> [#uses=1] |
| 23 | %asmtmp373 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 %4) nounwind ; <i64> [#uses=0] |
| 24 | %5 = xor i64 %asmtmp372, 0 ; <i64> [#uses=0] |
| 25 | %6 = xor i64 0, %b.0472 ; <i64> [#uses=1] |
| 26 | %7 = and i64 %4, %6 ; <i64> [#uses=1] |
| 27 | %8 = xor i64 %7, 0 ; <i64> [#uses=1] |
| 28 | %9 = add i64 0, %8 ; <i64> [#uses=1] |
| 29 | %10 = add i64 %9, 0 ; <i64> [#uses=2] |
| 30 | %asmtmp377 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 61, i64 0) nounwind ; <i64> [#uses=1] |
| 31 | %11 = xor i64 0, %asmtmp377 ; <i64> [#uses=1] |
| 32 | %12 = add i64 0, %11 ; <i64> [#uses=1] |
| 33 | %13 = add i64 %12, 0 ; <i64> [#uses=1] |
| 34 | %not381 = xor i64 0, -1 ; <i64> [#uses=1] |
| 35 | %14 = and i64 %e.0489, %not381 ; <i64> [#uses=1] |
| 36 | %15 = xor i64 0, %14 ; <i64> [#uses=1] |
| 37 | %16 = add i64 %15, 0 ; <i64> [#uses=1] |
| 38 | %17 = add i64 %16, %13 ; <i64> [#uses=1] |
| 39 | %18 = add i64 %17, 0 ; <i64> [#uses=1] |
| 40 | %19 = add i64 %18, 0 ; <i64> [#uses=2] |
| 41 | %20 = add i64 %19, %b.0472 ; <i64> [#uses=3] |
| 42 | %21 = add i64 %19, 0 ; <i64> [#uses=1] |
| 43 | %22 = add i64 %21, 0 ; <i64> [#uses=1] |
| 44 | %23 = add i32 0, 12 ; <i32> [#uses=1] |
| 45 | %24 = and i32 %23, 12 ; <i32> [#uses=1] |
| 46 | %25 = zext i32 %24 to i64 ; <i64> [#uses=1] |
| 47 | %26 = getelementptr [16 x i64]* null, i64 0, i64 %25 ; <i64*> [#uses=0] |
| 48 | %27 = add i64 0, %e.0489 ; <i64> [#uses=1] |
| 49 | %28 = add i64 %27, 0 ; <i64> [#uses=1] |
| 50 | %29 = add i64 %28, 0 ; <i64> [#uses=1] |
| 51 | %30 = add i64 %29, 0 ; <i64> [#uses=2] |
| 52 | %31 = and i64 %10, %4 ; <i64> [#uses=1] |
| 53 | %32 = xor i64 0, %31 ; <i64> [#uses=1] |
| 54 | %33 = add i64 %30, 0 ; <i64> [#uses=3] |
| 55 | %34 = add i64 %30, %32 ; <i64> [#uses=1] |
| 56 | %35 = add i64 %34, 0 ; <i64> [#uses=1] |
| 57 | %36 = and i64 %33, %20 ; <i64> [#uses=1] |
| 58 | %37 = xor i64 %36, 0 ; <i64> [#uses=1] |
| 59 | %38 = add i64 %37, 0 ; <i64> [#uses=1] |
| 60 | %39 = add i64 %38, 0 ; <i64> [#uses=1] |
| 61 | %40 = add i64 %39, 0 ; <i64> [#uses=1] |
| 62 | %41 = add i64 %40, 0 ; <i64> [#uses=1] |
| 63 | %42 = add i64 %41, %4 ; <i64> [#uses=3] |
| 64 | %43 = or i32 0, 6 ; <i32> [#uses=1] |
| 65 | %44 = and i32 %43, 14 ; <i32> [#uses=1] |
| 66 | %45 = zext i32 %44 to i64 ; <i64> [#uses=1] |
| 67 | %46 = getelementptr [16 x i64]* null, i64 0, i64 %45 ; <i64*> [#uses=1] |
| 68 | %not417 = xor i64 %42, -1 ; <i64> [#uses=1] |
| 69 | %47 = and i64 %20, %not417 ; <i64> [#uses=1] |
| 70 | %48 = xor i64 0, %47 ; <i64> [#uses=1] |
| 71 | %49 = getelementptr [80 x i64]* @K512, i64 0, i64 0 ; <i64*> [#uses=1] |
| 72 | %50 = load i64* %49, align 8 ; <i64> [#uses=1] |
| 73 | %51 = add i64 %48, 0 ; <i64> [#uses=1] |
| 74 | %52 = add i64 %51, 0 ; <i64> [#uses=1] |
| 75 | %53 = add i64 %52, 0 ; <i64> [#uses=1] |
| 76 | %54 = add i64 %53, %50 ; <i64> [#uses=2] |
| 77 | %asmtmp420 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 0) nounwind ; <i64> [#uses=1] |
| 78 | %asmtmp421 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 0) nounwind ; <i64> [#uses=1] |
| 79 | %55 = xor i64 %asmtmp420, 0 ; <i64> [#uses=1] |
| 80 | %56 = xor i64 %55, %asmtmp421 ; <i64> [#uses=1] |
| 81 | %57 = add i64 %54, %10 ; <i64> [#uses=5] |
| 82 | %58 = add i64 %54, 0 ; <i64> [#uses=1] |
| 83 | %59 = add i64 %58, %56 ; <i64> [#uses=2] |
| 84 | %60 = or i32 0, 7 ; <i32> [#uses=1] |
| 85 | %61 = and i32 %60, 15 ; <i32> [#uses=1] |
| 86 | %62 = zext i32 %61 to i64 ; <i64> [#uses=1] |
| 87 | %63 = getelementptr [16 x i64]* null, i64 0, i64 %62 ; <i64*> [#uses=2] |
| 88 | %64 = load i64* null, align 8 ; <i64> [#uses=1] |
| 89 | %65 = lshr i64 %64, 6 ; <i64> [#uses=1] |
| 90 | %66 = xor i64 0, %65 ; <i64> [#uses=1] |
| 91 | %67 = xor i64 %66, 0 ; <i64> [#uses=1] |
| 92 | %68 = load i64* %46, align 8 ; <i64> [#uses=1] |
| 93 | %69 = load i64* null, align 8 ; <i64> [#uses=1] |
| 94 | %70 = add i64 %68, 0 ; <i64> [#uses=1] |
| 95 | %71 = add i64 %70, %67 ; <i64> [#uses=1] |
| 96 | %72 = add i64 %71, %69 ; <i64> [#uses=1] |
| 97 | %asmtmp427 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 18, i64 %57) nounwind ; <i64> [#uses=1] |
| 98 | %asmtmp428 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 41, i64 %57) nounwind ; <i64> [#uses=1] |
| 99 | %73 = xor i64 %asmtmp427, 0 ; <i64> [#uses=1] |
| 100 | %74 = xor i64 %73, %asmtmp428 ; <i64> [#uses=1] |
| 101 | %75 = and i64 %57, %42 ; <i64> [#uses=1] |
| 102 | %not429 = xor i64 %57, -1 ; <i64> [#uses=1] |
| 103 | %76 = and i64 %33, %not429 ; <i64> [#uses=1] |
| 104 | %77 = xor i64 %75, %76 ; <i64> [#uses=1] |
| 105 | %78 = getelementptr [80 x i64]* @K512, i64 0, i64 0 ; <i64*> [#uses=1] |
| 106 | %79 = load i64* %78, align 16 ; <i64> [#uses=1] |
| 107 | %80 = add i64 %77, %20 ; <i64> [#uses=1] |
| 108 | %81 = add i64 %80, %72 ; <i64> [#uses=1] |
| 109 | %82 = add i64 %81, %74 ; <i64> [#uses=1] |
| 110 | %83 = add i64 %82, %79 ; <i64> [#uses=1] |
| 111 | %asmtmp432 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 34, i64 %59) nounwind ; <i64> [#uses=1] |
| 112 | %asmtmp433 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 39, i64 %59) nounwind ; <i64> [#uses=1] |
| 113 | %84 = xor i64 %asmtmp432, 0 ; <i64> [#uses=1] |
| 114 | %85 = xor i64 %84, %asmtmp433 ; <i64> [#uses=1] |
| 115 | %86 = add i64 %83, %22 ; <i64> [#uses=2] |
| 116 | %87 = add i64 0, %85 ; <i64> [#uses=1] |
| 117 | %asmtmp435 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 8, i64 0) nounwind ; <i64> [#uses=1] |
| 118 | %88 = xor i64 0, %asmtmp435 ; <i64> [#uses=1] |
| 119 | %89 = load i64* null, align 8 ; <i64> [#uses=3] |
| 120 | %asmtmp436 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 19, i64 %89) nounwind ; <i64> [#uses=1] |
| 121 | %asmtmp437 = call i64 asm "rorq $1,$0", "=r,J,0,~{dirflag},~{fpsr},~{flags},~{cc}"(i32 61, i64 %89) nounwind ; <i64> [#uses=1] |
| 122 | %90 = lshr i64 %89, 6 ; <i64> [#uses=1] |
| 123 | %91 = xor i64 %asmtmp436, %90 ; <i64> [#uses=1] |
| 124 | %92 = xor i64 %91, %asmtmp437 ; <i64> [#uses=1] |
| 125 | %93 = load i64* %63, align 8 ; <i64> [#uses=1] |
| 126 | %94 = load i64* null, align 8 ; <i64> [#uses=1] |
| 127 | %95 = add i64 %93, %88 ; <i64> [#uses=1] |
| 128 | %96 = add i64 %95, %92 ; <i64> [#uses=1] |
| 129 | %97 = add i64 %96, %94 ; <i64> [#uses=2] |
| 130 | store i64 %97, i64* %63, align 8 |
| 131 | %98 = and i64 %86, %57 ; <i64> [#uses=1] |
| 132 | %not441 = xor i64 %86, -1 ; <i64> [#uses=1] |
| 133 | %99 = and i64 %42, %not441 ; <i64> [#uses=1] |
| 134 | %100 = xor i64 %98, %99 ; <i64> [#uses=1] |
| 135 | %101 = add i64 %100, %33 ; <i64> [#uses=1] |
| 136 | %102 = add i64 %101, %97 ; <i64> [#uses=1] |
| 137 | %103 = add i64 %102, 0 ; <i64> [#uses=1] |
| 138 | %104 = add i64 %103, 0 ; <i64> [#uses=1] |
| 139 | %e.0 = add i64 %104, %35 ; <i64> [#uses=1] |
| 140 | br label %bb349 |
| 141 | } |