Matt Arsenault | 825fb0b | 2014-06-13 04:00:30 +0000 | [diff] [blame] | 1 | ; RUN: llc -march=r600 -mcpu=SI -verify-machineinstrs < %s | FileCheck -check-prefix=SI -check-prefix=FUNC %s |
| 2 | |
| 3 | ; FUNC-LABEL: @s_rotl_i64: |
| 4 | ; SI: S_LSHL_B64 |
| 5 | ; SI: S_SUB_I32 |
| 6 | ; SI: S_LSHR_B64 |
| 7 | ; SI: S_OR_B64 |
| 8 | define void @s_rotl_i64(i64 addrspace(1)* %in, i64 %x, i64 %y) { |
| 9 | entry: |
| 10 | %0 = shl i64 %x, %y |
| 11 | %1 = sub i64 64, %y |
| 12 | %2 = lshr i64 %x, %1 |
| 13 | %3 = or i64 %0, %2 |
| 14 | store i64 %3, i64 addrspace(1)* %in |
| 15 | ret void |
| 16 | } |
| 17 | |
| 18 | ; FUNC-LABEL: @v_rotl_i64: |
| 19 | ; SI: V_LSHL_B64 |
| 20 | ; SI: V_SUB_I32 |
| 21 | ; SI: V_LSHR_B64 |
| 22 | ; SI: V_OR_B32 |
| 23 | ; SI: V_OR_B32 |
| 24 | define void @v_rotl_i64(i64 addrspace(1)* %in, i64 addrspace(1)* %xptr, i64 addrspace(1)* %yptr) { |
| 25 | entry: |
| 26 | %x = load i64 addrspace(1)* %xptr, align 8 |
| 27 | %y = load i64 addrspace(1)* %yptr, align 8 |
| 28 | %tmp0 = shl i64 %x, %y |
| 29 | %tmp1 = sub i64 64, %y |
| 30 | %tmp2 = lshr i64 %x, %tmp1 |
| 31 | %tmp3 = or i64 %tmp0, %tmp2 |
| 32 | store i64 %tmp3, i64 addrspace(1)* %in, align 8 |
| 33 | ret void |
| 34 | } |