Dan Gohman | a2086b3 | 2010-05-19 23:43:12 +0000 | [diff] [blame^] | 1 | ; RUN: llc -mtriple=thumbv7-apple-darwin10 -mcpu=cortex-a8 < %s | FileCheck %s |
| 2 | |
| 3 | ; LSR should recognize that this is an unrolled loop which can use |
| 4 | ; constant offset addressing, so that each of the following stores |
| 5 | ; uses the same register. |
| 6 | |
| 7 | ; CHECK: vstr.32 s0, [r12, #-128] |
| 8 | ; CHECK: vstr.32 s0, [r12, #-96] |
| 9 | ; CHECK: vstr.32 s0, [r12, #-64] |
| 10 | ; CHECK: vstr.32 s0, [r12, #-32] |
| 11 | ; CHECK: vstr.32 s0, [r12] |
| 12 | ; CHECK: vstr.32 s0, [r12, #32] |
| 13 | ; CHECK: vstr.32 s0, [r12, #64] |
| 14 | ; CHECK: vstr.32 s0, [r12, #96] |
| 15 | |
| 16 | target datalayout = "e-p:32:32:32-i1:8:32-i8:8:32-i16:16:32-i32:32:32-i64:32:32-f32:32:32-f64:32:32-v64:64:64-v128:128:128-a0:0:32-n32" |
| 17 | |
| 18 | %0 = type { %1*, %3*, %6*, i8*, i32, i32, %8*, i32, i32, i32, i32, i32, i32, i32, double, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i8**, i32, i32, i32, i32, i32, [64 x i32]*, [4 x %9*], [4 x %10*], [4 x %10*], i32, %11*, i32, i32, [16 x i8], [16 x i8], [16 x i8], i32, i32, i8, i8, i8, i16, i16, i32, i8, i32, %12*, i32, i32, i32, i32, i8*, i32, [4 x %11*], i32, i32, i32, [10 x i32], i32, i32, i32, i32, i32, %13*, %14*, %15*, %16*, %17*, %18*, %19*, %20*, %21*, %22*, %23* } |
| 19 | %1 = type { void (%2*)*, void (%2*, i32)*, void (%2*)*, void (%2*, i8*)*, void (%2*)*, i32, %7, i32, i32, i8**, i32, i8**, i32, i32 } |
| 20 | %2 = type { %1*, %3*, %6*, i8*, i32, i32 } |
| 21 | %3 = type { i8* (%2*, i32, i32)*, i8* (%2*, i32, i32)*, i8** (%2*, i32, i32, i32)*, [64 x i16]** (%2*, i32, i32, i32)*, %4* (%2*, i32, i32, i32, i32, i32)*, %5* (%2*, i32, i32, i32, i32, i32)*, void (%2*)*, i8** (%2*, %4*, i32, i32, i32)*, [64 x i16]** (%2*, %5*, i32, i32, i32)*, void (%2*, i32)*, void (%2*)*, i32, i32 } |
| 22 | %4 = type opaque |
| 23 | %5 = type opaque |
| 24 | %6 = type { void (%2*)*, i32, i32, i32, i32 } |
| 25 | %7 = type { [8 x i32], [12 x i32] } |
| 26 | %8 = type { i8*, i32, void (%0*)*, i32 (%0*)*, void (%0*, i32)*, i32 (%0*, i32)*, void (%0*)* } |
| 27 | %9 = type { [64 x i16], i32 } |
| 28 | %10 = type { [17 x i8], [256 x i8], i32 } |
| 29 | %11 = type { i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, i32, %9*, i8* } |
| 30 | %12 = type { %12*, i8, i32, i32, i8* } |
| 31 | %13 = type { void (%0*)*, void (%0*)*, i32 } |
| 32 | %14 = type { void (%0*, i32)*, void (%0*, i8**, i32*, i32)* } |
| 33 | %15 = type { void (%0*)*, i32 (%0*)*, void (%0*)*, i32 (%0*, i8***)*, %5** } |
| 34 | %16 = type { void (%0*, i32)*, void (%0*, i8***, i32*, i32, i8**, i32*, i32)* } |
| 35 | %17 = type { i32 (%0*)*, void (%0*)*, void (%0*)*, void (%0*)*, i32, i32 } |
| 36 | %18 = type { void (%0*)*, i32 (%0*)*, i32 (%0*)*, i32, i32, i32, i32 } |
| 37 | %19 = type { void (%0*)*, i32 (%0*, [64 x i16]**)*, i32 } |
| 38 | %20 = type { void (%0*)*, [10 x void (%0*, %11*, i16*, i8**, i32)*] } |
| 39 | %21 = type { void (%0*)*, void (%0*, i8***, i32*, i32, i8**, i32*, i32)*, i32 } |
| 40 | %22 = type { void (%0*)*, void (%0*, i8***, i32, i8**, i32)* } |
| 41 | %23 = type { void (%0*, i32)*, void (%0*, i8**, i8**, i32)*, void (%0*)*, void (%0*)* } |
| 42 | |
| 43 | define arm_apcscc void @test(%0* nocapture %a0, %11* nocapture %a1, i16* nocapture %a2, i8** nocapture %a3, i32 %a4) nounwind { |
| 44 | bb: |
| 45 | %t = alloca [64 x float], align 4 |
| 46 | %t5 = getelementptr inbounds %0* %a0, i32 0, i32 65 |
| 47 | %t6 = load i8** %t5, align 4 |
| 48 | %t7 = getelementptr inbounds %11* %a1, i32 0, i32 20 |
| 49 | %t8 = load i8** %t7, align 4 |
| 50 | br label %bb9 |
| 51 | |
| 52 | bb9: |
| 53 | %t10 = phi i32 [ 0, %bb ], [ %t157, %bb156 ] |
| 54 | %t11 = add i32 %t10, 8 |
| 55 | %t12 = getelementptr [64 x float]* %t, i32 0, i32 %t11 |
| 56 | %t13 = add i32 %t10, 16 |
| 57 | %t14 = getelementptr [64 x float]* %t, i32 0, i32 %t13 |
| 58 | %t15 = add i32 %t10, 24 |
| 59 | %t16 = getelementptr [64 x float]* %t, i32 0, i32 %t15 |
| 60 | %t17 = add i32 %t10, 32 |
| 61 | %t18 = getelementptr [64 x float]* %t, i32 0, i32 %t17 |
| 62 | %t19 = add i32 %t10, 40 |
| 63 | %t20 = getelementptr [64 x float]* %t, i32 0, i32 %t19 |
| 64 | %t21 = add i32 %t10, 48 |
| 65 | %t22 = getelementptr [64 x float]* %t, i32 0, i32 %t21 |
| 66 | %t23 = add i32 %t10, 56 |
| 67 | %t24 = getelementptr [64 x float]* %t, i32 0, i32 %t23 |
| 68 | %t25 = getelementptr [64 x float]* %t, i32 0, i32 %t10 |
| 69 | %t26 = shl i32 %t10, 5 |
| 70 | %t27 = or i32 %t26, 8 |
| 71 | %t28 = getelementptr i8* %t8, i32 %t27 |
| 72 | %t29 = bitcast i8* %t28 to float* |
| 73 | %t30 = or i32 %t26, 16 |
| 74 | %t31 = getelementptr i8* %t8, i32 %t30 |
| 75 | %t32 = bitcast i8* %t31 to float* |
| 76 | %t33 = or i32 %t26, 24 |
| 77 | %t34 = getelementptr i8* %t8, i32 %t33 |
| 78 | %t35 = bitcast i8* %t34 to float* |
| 79 | %t36 = or i32 %t26, 4 |
| 80 | %t37 = getelementptr i8* %t8, i32 %t36 |
| 81 | %t38 = bitcast i8* %t37 to float* |
| 82 | %t39 = or i32 %t26, 12 |
| 83 | %t40 = getelementptr i8* %t8, i32 %t39 |
| 84 | %t41 = bitcast i8* %t40 to float* |
| 85 | %t42 = or i32 %t26, 20 |
| 86 | %t43 = getelementptr i8* %t8, i32 %t42 |
| 87 | %t44 = bitcast i8* %t43 to float* |
| 88 | %t45 = or i32 %t26, 28 |
| 89 | %t46 = getelementptr i8* %t8, i32 %t45 |
| 90 | %t47 = bitcast i8* %t46 to float* |
| 91 | %t48 = getelementptr i8* %t8, i32 %t26 |
| 92 | %t49 = bitcast i8* %t48 to float* |
| 93 | %t50 = shl i32 %t10, 3 |
| 94 | %t51 = or i32 %t50, 1 |
| 95 | %t52 = getelementptr i16* %a2, i32 %t51 |
| 96 | %t53 = or i32 %t50, 2 |
| 97 | %t54 = getelementptr i16* %a2, i32 %t53 |
| 98 | %t55 = or i32 %t50, 3 |
| 99 | %t56 = getelementptr i16* %a2, i32 %t55 |
| 100 | %t57 = or i32 %t50, 4 |
| 101 | %t58 = getelementptr i16* %a2, i32 %t57 |
| 102 | %t59 = or i32 %t50, 5 |
| 103 | %t60 = getelementptr i16* %a2, i32 %t59 |
| 104 | %t61 = or i32 %t50, 6 |
| 105 | %t62 = getelementptr i16* %a2, i32 %t61 |
| 106 | %t63 = or i32 %t50, 7 |
| 107 | %t64 = getelementptr i16* %a2, i32 %t63 |
| 108 | %t65 = getelementptr i16* %a2, i32 %t50 |
| 109 | %t66 = load i16* %t52, align 2 |
| 110 | %t67 = icmp eq i16 %t66, 0 |
| 111 | %t68 = load i16* %t54, align 2 |
| 112 | %t69 = icmp eq i16 %t68, 0 |
| 113 | %t70 = and i1 %t67, %t69 |
| 114 | br i1 %t70, label %bb71, label %bb91 |
| 115 | |
| 116 | bb71: |
| 117 | %t72 = load i16* %t56, align 2 |
| 118 | %t73 = icmp eq i16 %t72, 0 |
| 119 | br i1 %t73, label %bb74, label %bb91 |
| 120 | |
| 121 | bb74: |
| 122 | %t75 = load i16* %t58, align 2 |
| 123 | %t76 = icmp eq i16 %t75, 0 |
| 124 | br i1 %t76, label %bb77, label %bb91 |
| 125 | |
| 126 | bb77: |
| 127 | %t78 = load i16* %t60, align 2 |
| 128 | %t79 = icmp eq i16 %t78, 0 |
| 129 | br i1 %t79, label %bb80, label %bb91 |
| 130 | |
| 131 | bb80: |
| 132 | %t81 = load i16* %t62, align 2 |
| 133 | %t82 = icmp eq i16 %t81, 0 |
| 134 | br i1 %t82, label %bb83, label %bb91 |
| 135 | |
| 136 | bb83: |
| 137 | %t84 = load i16* %t64, align 2 |
| 138 | %t85 = icmp eq i16 %t84, 0 |
| 139 | br i1 %t85, label %bb86, label %bb91 |
| 140 | |
| 141 | bb86: |
| 142 | %t87 = load i16* %t65, align 2 |
| 143 | %t88 = sitofp i16 %t87 to float |
| 144 | %t89 = load float* %t49, align 4 |
| 145 | %t90 = fmul float %t88, %t89 |
| 146 | store float %t90, float* %t25, align 4 |
| 147 | store float %t90, float* %t12, align 4 |
| 148 | store float %t90, float* %t14, align 4 |
| 149 | store float %t90, float* %t16, align 4 |
| 150 | store float %t90, float* %t18, align 4 |
| 151 | store float %t90, float* %t20, align 4 |
| 152 | store float %t90, float* %t22, align 4 |
| 153 | store float %t90, float* %t24, align 4 |
| 154 | br label %bb156 |
| 155 | |
| 156 | bb91: |
| 157 | %t92 = load i16* %t65, align 2 |
| 158 | %t93 = sitofp i16 %t92 to float |
| 159 | %t94 = load float* %t49, align 4 |
| 160 | %t95 = fmul float %t93, %t94 |
| 161 | %t96 = sitofp i16 %t68 to float |
| 162 | %t97 = load float* %t29, align 4 |
| 163 | %t98 = fmul float %t96, %t97 |
| 164 | %t99 = load i16* %t58, align 2 |
| 165 | %t100 = sitofp i16 %t99 to float |
| 166 | %t101 = load float* %t32, align 4 |
| 167 | %t102 = fmul float %t100, %t101 |
| 168 | %t103 = load i16* %t62, align 2 |
| 169 | %t104 = sitofp i16 %t103 to float |
| 170 | %t105 = load float* %t35, align 4 |
| 171 | %t106 = fmul float %t104, %t105 |
| 172 | %t107 = fadd float %t95, %t102 |
| 173 | %t108 = fsub float %t95, %t102 |
| 174 | %t109 = fadd float %t98, %t106 |
| 175 | %t110 = fsub float %t98, %t106 |
| 176 | %t111 = fmul float %t110, 0x3FF6A09E60000000 |
| 177 | %t112 = fsub float %t111, %t109 |
| 178 | %t113 = fadd float %t107, %t109 |
| 179 | %t114 = fsub float %t107, %t109 |
| 180 | %t115 = fadd float %t108, %t112 |
| 181 | %t116 = fsub float %t108, %t112 |
| 182 | %t117 = sitofp i16 %t66 to float |
| 183 | %t118 = load float* %t38, align 4 |
| 184 | %t119 = fmul float %t117, %t118 |
| 185 | %t120 = load i16* %t56, align 2 |
| 186 | %t121 = sitofp i16 %t120 to float |
| 187 | %t122 = load float* %t41, align 4 |
| 188 | %t123 = fmul float %t121, %t122 |
| 189 | %t124 = load i16* %t60, align 2 |
| 190 | %t125 = sitofp i16 %t124 to float |
| 191 | %t126 = load float* %t44, align 4 |
| 192 | %t127 = fmul float %t125, %t126 |
| 193 | %t128 = load i16* %t64, align 2 |
| 194 | %t129 = sitofp i16 %t128 to float |
| 195 | %t130 = load float* %t47, align 4 |
| 196 | %t131 = fmul float %t129, %t130 |
| 197 | %t132 = fadd float %t127, %t123 |
| 198 | %t133 = fsub float %t127, %t123 |
| 199 | %t134 = fadd float %t119, %t131 |
| 200 | %t135 = fsub float %t119, %t131 |
| 201 | %t136 = fadd float %t134, %t132 |
| 202 | %t137 = fsub float %t134, %t132 |
| 203 | %t138 = fmul float %t137, 0x3FF6A09E60000000 |
| 204 | %t139 = fadd float %t133, %t135 |
| 205 | %t140 = fmul float %t139, 0x3FFD906BC0000000 |
| 206 | %t141 = fmul float %t135, 0x3FF1517A80000000 |
| 207 | %t142 = fsub float %t141, %t140 |
| 208 | %t143 = fmul float %t133, 0xC004E7AEA0000000 |
| 209 | %t144 = fadd float %t143, %t140 |
| 210 | %t145 = fsub float %t144, %t136 |
| 211 | %t146 = fsub float %t138, %t145 |
| 212 | %t147 = fadd float %t142, %t146 |
| 213 | %t148 = fadd float %t113, %t136 |
| 214 | store float %t148, float* %t25, align 4 |
| 215 | %t149 = fsub float %t113, %t136 |
| 216 | store float %t149, float* %t24, align 4 |
| 217 | %t150 = fadd float %t115, %t145 |
| 218 | store float %t150, float* %t12, align 4 |
| 219 | %t151 = fsub float %t115, %t145 |
| 220 | store float %t151, float* %t22, align 4 |
| 221 | %t152 = fadd float %t116, %t146 |
| 222 | store float %t152, float* %t14, align 4 |
| 223 | %t153 = fsub float %t116, %t146 |
| 224 | store float %t153, float* %t20, align 4 |
| 225 | %t154 = fadd float %t114, %t147 |
| 226 | store float %t154, float* %t18, align 4 |
| 227 | %t155 = fsub float %t114, %t147 |
| 228 | store float %t155, float* %t16, align 4 |
| 229 | br label %bb156 |
| 230 | |
| 231 | bb156: |
| 232 | %t157 = add i32 %t10, 1 |
| 233 | %t158 = icmp eq i32 %t157, 8 |
| 234 | br i1 %t158, label %bb159, label %bb9 |
| 235 | |
| 236 | bb159: |
| 237 | %t160 = add i32 %a4, 7 |
| 238 | %t161 = add i32 %a4, 1 |
| 239 | %t162 = add i32 %a4, 6 |
| 240 | %t163 = add i32 %a4, 2 |
| 241 | %t164 = add i32 %a4, 5 |
| 242 | %t165 = add i32 %a4, 4 |
| 243 | %t166 = add i32 %a4, 3 |
| 244 | br label %bb167 |
| 245 | |
| 246 | bb167: |
| 247 | %t168 = phi i32 [ 0, %bb159 ], [ %t293, %bb167 ] |
| 248 | %t169 = getelementptr i8** %a3, i32 %t168 |
| 249 | %t170 = shl i32 %t168, 3 |
| 250 | %t171 = or i32 %t170, 4 |
| 251 | %t172 = getelementptr [64 x float]* %t, i32 0, i32 %t171 |
| 252 | %t173 = or i32 %t170, 2 |
| 253 | %t174 = getelementptr [64 x float]* %t, i32 0, i32 %t173 |
| 254 | %t175 = or i32 %t170, 6 |
| 255 | %t176 = getelementptr [64 x float]* %t, i32 0, i32 %t175 |
| 256 | %t177 = or i32 %t170, 5 |
| 257 | %t178 = getelementptr [64 x float]* %t, i32 0, i32 %t177 |
| 258 | %t179 = or i32 %t170, 3 |
| 259 | %t180 = getelementptr [64 x float]* %t, i32 0, i32 %t179 |
| 260 | %t181 = or i32 %t170, 1 |
| 261 | %t182 = getelementptr [64 x float]* %t, i32 0, i32 %t181 |
| 262 | %t183 = or i32 %t170, 7 |
| 263 | %t184 = getelementptr [64 x float]* %t, i32 0, i32 %t183 |
| 264 | %t185 = getelementptr [64 x float]* %t, i32 0, i32 %t170 |
| 265 | %t186 = load i8** %t169, align 4 |
| 266 | %t187 = getelementptr inbounds i8* %t186, i32 %a4 |
| 267 | %t188 = load float* %t185, align 4 |
| 268 | %t189 = load float* %t172, align 4 |
| 269 | %t190 = fadd float %t188, %t189 |
| 270 | %t191 = fsub float %t188, %t189 |
| 271 | %t192 = load float* %t174, align 4 |
| 272 | %t193 = load float* %t176, align 4 |
| 273 | %t194 = fadd float %t192, %t193 |
| 274 | %t195 = fsub float %t192, %t193 |
| 275 | %t196 = fmul float %t195, 0x3FF6A09E60000000 |
| 276 | %t197 = fsub float %t196, %t194 |
| 277 | %t198 = fadd float %t190, %t194 |
| 278 | %t199 = fsub float %t190, %t194 |
| 279 | %t200 = fadd float %t191, %t197 |
| 280 | %t201 = fsub float %t191, %t197 |
| 281 | %t202 = load float* %t178, align 4 |
| 282 | %t203 = load float* %t180, align 4 |
| 283 | %t204 = fadd float %t202, %t203 |
| 284 | %t205 = fsub float %t202, %t203 |
| 285 | %t206 = load float* %t182, align 4 |
| 286 | %t207 = load float* %t184, align 4 |
| 287 | %t208 = fadd float %t206, %t207 |
| 288 | %t209 = fsub float %t206, %t207 |
| 289 | %t210 = fadd float %t208, %t204 |
| 290 | %t211 = fsub float %t208, %t204 |
| 291 | %t212 = fmul float %t211, 0x3FF6A09E60000000 |
| 292 | %t213 = fadd float %t205, %t209 |
| 293 | %t214 = fmul float %t213, 0x3FFD906BC0000000 |
| 294 | %t215 = fmul float %t209, 0x3FF1517A80000000 |
| 295 | %t216 = fsub float %t215, %t214 |
| 296 | %t217 = fmul float %t205, 0xC004E7AEA0000000 |
| 297 | %t218 = fadd float %t217, %t214 |
| 298 | %t219 = fsub float %t218, %t210 |
| 299 | %t220 = fsub float %t212, %t219 |
| 300 | %t221 = fadd float %t216, %t220 |
| 301 | %t222 = fadd float %t198, %t210 |
| 302 | %t223 = fptosi float %t222 to i32 |
| 303 | %t224 = add nsw i32 %t223, 4 |
| 304 | %t225 = lshr i32 %t224, 3 |
| 305 | %t226 = and i32 %t225, 1023 |
| 306 | %t227 = add i32 %t226, 128 |
| 307 | %t228 = getelementptr inbounds i8* %t6, i32 %t227 |
| 308 | %t229 = load i8* %t228, align 1 |
| 309 | store i8 %t229, i8* %t187, align 1 |
| 310 | %t230 = fsub float %t198, %t210 |
| 311 | %t231 = fptosi float %t230 to i32 |
| 312 | %t232 = add nsw i32 %t231, 4 |
| 313 | %t233 = lshr i32 %t232, 3 |
| 314 | %t234 = and i32 %t233, 1023 |
| 315 | %t235 = add i32 %t234, 128 |
| 316 | %t236 = getelementptr inbounds i8* %t6, i32 %t235 |
| 317 | %t237 = load i8* %t236, align 1 |
| 318 | %t238 = getelementptr inbounds i8* %t186, i32 %t160 |
| 319 | store i8 %t237, i8* %t238, align 1 |
| 320 | %t239 = fadd float %t200, %t219 |
| 321 | %t240 = fptosi float %t239 to i32 |
| 322 | %t241 = add nsw i32 %t240, 4 |
| 323 | %t242 = lshr i32 %t241, 3 |
| 324 | %t243 = and i32 %t242, 1023 |
| 325 | %t244 = add i32 %t243, 128 |
| 326 | %t245 = getelementptr inbounds i8* %t6, i32 %t244 |
| 327 | %t246 = load i8* %t245, align 1 |
| 328 | %t247 = getelementptr inbounds i8* %t186, i32 %t161 |
| 329 | store i8 %t246, i8* %t247, align 1 |
| 330 | %t248 = fsub float %t200, %t219 |
| 331 | %t249 = fptosi float %t248 to i32 |
| 332 | %t250 = add nsw i32 %t249, 4 |
| 333 | %t251 = lshr i32 %t250, 3 |
| 334 | %t252 = and i32 %t251, 1023 |
| 335 | %t253 = add i32 %t252, 128 |
| 336 | %t254 = getelementptr inbounds i8* %t6, i32 %t253 |
| 337 | %t255 = load i8* %t254, align 1 |
| 338 | %t256 = getelementptr inbounds i8* %t186, i32 %t162 |
| 339 | store i8 %t255, i8* %t256, align 1 |
| 340 | %t257 = fadd float %t201, %t220 |
| 341 | %t258 = fptosi float %t257 to i32 |
| 342 | %t259 = add nsw i32 %t258, 4 |
| 343 | %t260 = lshr i32 %t259, 3 |
| 344 | %t261 = and i32 %t260, 1023 |
| 345 | %t262 = add i32 %t261, 128 |
| 346 | %t263 = getelementptr inbounds i8* %t6, i32 %t262 |
| 347 | %t264 = load i8* %t263, align 1 |
| 348 | %t265 = getelementptr inbounds i8* %t186, i32 %t163 |
| 349 | store i8 %t264, i8* %t265, align 1 |
| 350 | %t266 = fsub float %t201, %t220 |
| 351 | %t267 = fptosi float %t266 to i32 |
| 352 | %t268 = add nsw i32 %t267, 4 |
| 353 | %t269 = lshr i32 %t268, 3 |
| 354 | %t270 = and i32 %t269, 1023 |
| 355 | %t271 = add i32 %t270, 128 |
| 356 | %t272 = getelementptr inbounds i8* %t6, i32 %t271 |
| 357 | %t273 = load i8* %t272, align 1 |
| 358 | %t274 = getelementptr inbounds i8* %t186, i32 %t164 |
| 359 | store i8 %t273, i8* %t274, align 1 |
| 360 | %t275 = fadd float %t199, %t221 |
| 361 | %t276 = fptosi float %t275 to i32 |
| 362 | %t277 = add nsw i32 %t276, 4 |
| 363 | %t278 = lshr i32 %t277, 3 |
| 364 | %t279 = and i32 %t278, 1023 |
| 365 | %t280 = add i32 %t279, 128 |
| 366 | %t281 = getelementptr inbounds i8* %t6, i32 %t280 |
| 367 | %t282 = load i8* %t281, align 1 |
| 368 | %t283 = getelementptr inbounds i8* %t186, i32 %t165 |
| 369 | store i8 %t282, i8* %t283, align 1 |
| 370 | %t284 = fsub float %t199, %t221 |
| 371 | %t285 = fptosi float %t284 to i32 |
| 372 | %t286 = add nsw i32 %t285, 4 |
| 373 | %t287 = lshr i32 %t286, 3 |
| 374 | %t288 = and i32 %t287, 1023 |
| 375 | %t289 = add i32 %t288, 128 |
| 376 | %t290 = getelementptr inbounds i8* %t6, i32 %t289 |
| 377 | %t291 = load i8* %t290, align 1 |
| 378 | %t292 = getelementptr inbounds i8* %t186, i32 %t166 |
| 379 | store i8 %t291, i8* %t292, align 1 |
| 380 | %t293 = add nsw i32 %t168, 1 |
| 381 | %t294 = icmp eq i32 %t293, 8 |
| 382 | br i1 %t294, label %bb295, label %bb167 |
| 383 | |
| 384 | bb295: |
| 385 | ret void |
| 386 | } |