Fix m 60 a 0 by making modified variable non-const
[hashcat.git] / OpenCL / m06231.cl
index dc74685..4bcf445 100644 (file)
@@ -1,30 +1,24 @@
 /**
- * Author......: Jens Steube <jens.steube@gmail.com>
+ * Authors.....: Jens Steube <jens.steube@gmail.com>
+ *               Gabriele Gristina <matrix@hashcat.net>
+ *
  * License.....: MIT
  */
 
 #define _WHIRLPOOL_
 
-#include "include/constants.h"
-#include "include/kernel_vendor.h"
+#include "inc_vendor.cl"
+#include "inc_hash_constants.h"
+#include "inc_hash_functions.cl"
+#include "inc_types.cl"
+#include "inc_common.cl"
 
-#define DGST_R0 0
-#define DGST_R1 1
-#define DGST_R2 2
-#define DGST_R3 3
-
-#include "include/kernel_functions.c"
-#include "types_ocl.c"
-#include "common.c"
-
-#include "gpu_aes256_amd.c"
-#include "gpu_twofish256_amd.c"
-#include "gpu_serpent256_amd.c"
+#include "inc_cipher_aes256.cl"
+#include "inc_cipher_twofish256.cl"
+#include "inc_cipher_serpent256.cl"
 
 #define R 10
 
-#define BOX(S,n,i) (u32) ((S)[(n)][(i)])
-
 __constant u32 Ch[8][256] =
 {
   {
@@ -1089,11 +1083,212 @@ __constant u32 Cl[8][256] =
   },
 };
 
-#ifdef VECT_SIZE1
-#define BOX(S,n,i) (u32) ((S)[(n)][(i)])
-#endif
+#define BOX(S,n,i) (S)[(n)][(i)]
 
-static void whirlpool_transform (const u32 w[16], u32 dgst[16], __local u32 s_Ch[8][256], __local u32 s_Cl[8][256])
+void whirlpool_transform_last (u32 dgst[16], __local u32 (*s_Ch)[256], __local u32 (*s_Cl)[256])
+{
+  const u32 rch[R + 1] =
+  {
+    0x00000000,
+    0x1823c6e8,
+    0x36a6d2f5,
+    0x60bc9b8e,
+    0x1de0d7c2,
+    0x157737e5,
+    0x58c9290a,
+    0xbd5d10f4,
+    0xe427418b,
+    0xfbee7c66,
+    0xca2dbf07,
+  };
+
+  const u32 rcl[R + 1] =
+  {
+    0x00000000,
+    0x87b8014f,
+    0x796f9152,
+    0xa30c7b35,
+    0x2e4bfe57,
+    0x9ff04ada,
+    0xb1a06b85,
+    0xcb3e0567,
+    0xa77d95d8,
+    0xdd17479e,
+    0xad5a8333,
+  };
+
+  u32 Kh[8];
+  u32 Kl[8];
+
+  Kh[0] = dgst[ 0];
+  Kl[0] = dgst[ 1];
+  Kh[1] = dgst[ 2];
+  Kl[1] = dgst[ 3];
+  Kh[2] = dgst[ 4];
+  Kl[2] = dgst[ 5];
+  Kh[3] = dgst[ 6];
+  Kl[3] = dgst[ 7];
+  Kh[4] = dgst[ 8];
+  Kl[4] = dgst[ 9];
+  Kh[5] = dgst[10];
+  Kl[5] = dgst[11];
+  Kh[6] = dgst[12];
+  Kl[6] = dgst[13];
+  Kh[7] = dgst[14];
+  Kl[7] = dgst[15];
+
+  u32 stateh[8];
+  u32 statel[8];
+
+  #define LAST_W00 0x80000000
+  #define LAST_W15 ((64 + 64) * 8)
+
+  stateh[0] = Kh[0] ^ LAST_W00;
+  statel[0] = Kl[0];
+  stateh[1] = Kh[1];
+  statel[1] = Kl[1];
+  stateh[2] = Kh[2];
+  statel[2] = Kl[2];
+  stateh[3] = Kh[3];
+  statel[3] = Kl[3];
+  stateh[4] = Kh[4];
+  statel[4] = Kl[4];
+  stateh[5] = Kh[5];
+  statel[5] = Kl[5];
+  stateh[6] = Kh[6];
+  statel[6] = Kl[6];
+  stateh[7] = Kh[7];
+  statel[7] = Kl[7] ^ LAST_W15;
+
+  u32 r;
+
+  for (r = 1; r <= R; r++)
+  {
+    u32 Lh[8];
+    u32 Ll[8];
+
+    u32 i;
+
+    #ifdef _unroll
+    #pragma unroll
+    #endif
+    for (i = 0; i < 8; i++)
+    {
+      const u32 Lp0 = Kh[(i + 8) & 7] >> 24;
+      const u32 Lp1 = Kh[(i + 7) & 7] >> 16;
+      const u32 Lp2 = Kh[(i + 6) & 7] >>  8;
+      const u32 Lp3 = Kh[(i + 5) & 7] >>  0;
+      const u32 Lp4 = Kl[(i + 4) & 7] >> 24;
+      const u32 Lp5 = Kl[(i + 3) & 7] >> 16;
+      const u32 Lp6 = Kl[(i + 2) & 7] >>  8;
+      const u32 Lp7 = Kl[(i + 1) & 7] >>  0;
+
+      Lh[i] = BOX (s_Ch, 0, Lp0 & 0xff)
+            ^ BOX (s_Ch, 1, Lp1 & 0xff)
+            ^ BOX (s_Ch, 2, Lp2 & 0xff)
+            ^ BOX (s_Ch, 3, Lp3 & 0xff)
+            ^ BOX (s_Ch, 4, Lp4 & 0xff)
+            ^ BOX (s_Ch, 5, Lp5 & 0xff)
+            ^ BOX (s_Ch, 6, Lp6 & 0xff)
+            ^ BOX (s_Ch, 7, Lp7 & 0xff);
+
+      Ll[i] = BOX (s_Cl, 0, Lp0 & 0xff)
+            ^ BOX (s_Cl, 1, Lp1 & 0xff)
+            ^ BOX (s_Cl, 2, Lp2 & 0xff)
+            ^ BOX (s_Cl, 3, Lp3 & 0xff)
+            ^ BOX (s_Cl, 4, Lp4 & 0xff)
+            ^ BOX (s_Cl, 5, Lp5 & 0xff)
+            ^ BOX (s_Cl, 6, Lp6 & 0xff)
+            ^ BOX (s_Cl, 7, Lp7 & 0xff);
+    }
+
+    Kh[0] = Lh[0] ^ rch[r];
+    Kl[0] = Ll[0] ^ rcl[r];
+    Kh[1] = Lh[1];
+    Kl[1] = Ll[1];
+    Kh[2] = Lh[2];
+    Kl[2] = Ll[2];
+    Kh[3] = Lh[3];
+    Kl[3] = Ll[3];
+    Kh[4] = Lh[4];
+    Kl[4] = Ll[4];
+    Kh[5] = Lh[5];
+    Kl[5] = Ll[5];
+    Kh[6] = Lh[6];
+    Kl[6] = Ll[6];
+    Kh[7] = Lh[7];
+    Kl[7] = Ll[7];
+
+    #ifdef _unroll
+    #pragma unroll
+    #endif
+    for (i = 0; i < 8; i++)
+    {
+      const u32 Lp0 = stateh[(i + 8) & 7] >> 24;
+      const u32 Lp1 = stateh[(i + 7) & 7] >> 16;
+      const u32 Lp2 = stateh[(i + 6) & 7] >>  8;
+      const u32 Lp3 = stateh[(i + 5) & 7] >>  0;
+      const u32 Lp4 = statel[(i + 4) & 7] >> 24;
+      const u32 Lp5 = statel[(i + 3) & 7] >> 16;
+      const u32 Lp6 = statel[(i + 2) & 7] >>  8;
+      const u32 Lp7 = statel[(i + 1) & 7] >>  0;
+
+      Lh[i] = BOX (s_Ch, 0, Lp0 & 0xff)
+            ^ BOX (s_Ch, 1, Lp1 & 0xff)
+            ^ BOX (s_Ch, 2, Lp2 & 0xff)
+            ^ BOX (s_Ch, 3, Lp3 & 0xff)
+            ^ BOX (s_Ch, 4, Lp4 & 0xff)
+            ^ BOX (s_Ch, 5, Lp5 & 0xff)
+            ^ BOX (s_Ch, 6, Lp6 & 0xff)
+            ^ BOX (s_Ch, 7, Lp7 & 0xff);
+
+      Ll[i] = BOX (s_Cl, 0, Lp0 & 0xff)
+            ^ BOX (s_Cl, 1, Lp1 & 0xff)
+            ^ BOX (s_Cl, 2, Lp2 & 0xff)
+            ^ BOX (s_Cl, 3, Lp3 & 0xff)
+            ^ BOX (s_Cl, 4, Lp4 & 0xff)
+            ^ BOX (s_Cl, 5, Lp5 & 0xff)
+            ^ BOX (s_Cl, 6, Lp6 & 0xff)
+            ^ BOX (s_Cl, 7, Lp7 & 0xff);
+    }
+
+    stateh[0] = Lh[0] ^ Kh[0];
+    statel[0] = Ll[0] ^ Kl[0];
+    stateh[1] = Lh[1] ^ Kh[1];
+    statel[1] = Ll[1] ^ Kl[1];
+    stateh[2] = Lh[2] ^ Kh[2];
+    statel[2] = Ll[2] ^ Kl[2];
+    stateh[3] = Lh[3] ^ Kh[3];
+    statel[3] = Ll[3] ^ Kl[3];
+    stateh[4] = Lh[4] ^ Kh[4];
+    statel[4] = Ll[4] ^ Kl[4];
+    stateh[5] = Lh[5] ^ Kh[5];
+    statel[5] = Ll[5] ^ Kl[5];
+    stateh[6] = Lh[6] ^ Kh[6];
+    statel[6] = Ll[6] ^ Kl[6];
+    stateh[7] = Lh[7] ^ Kh[7];
+    statel[7] = Ll[7] ^ Kl[7];
+  }
+
+  dgst[ 0] ^= stateh[0] ^ LAST_W00;
+  dgst[ 1] ^= statel[0];
+  dgst[ 2] ^= stateh[1];
+  dgst[ 3] ^= statel[1];
+  dgst[ 4] ^= stateh[2];
+  dgst[ 5] ^= statel[2];
+  dgst[ 6] ^= stateh[3];
+  dgst[ 7] ^= statel[3];
+  dgst[ 8] ^= stateh[4];
+  dgst[ 9] ^= statel[4];
+  dgst[10] ^= stateh[5];
+  dgst[11] ^= statel[5];
+  dgst[12] ^= stateh[6];
+  dgst[13] ^= statel[6];
+  dgst[14] ^= stateh[7];
+  dgst[15] ^= statel[7] ^ LAST_W15;
+}
+
+void whirlpool_transform (const u32 w[16], u32 dgst[16], __local u32 (*s_Ch)[256], __local u32 (*s_Cl)[256])
 {
   const u32 rch[R + 1] =
   {
@@ -1174,17 +1369,19 @@ static void whirlpool_transform (const u32 w[16], u32 dgst[16], __local u32 s_Ch
 
     u32 i;
 
-    #pragma unroll 8
+    #ifdef _unroll
+    #pragma unroll
+    #endif
     for (i = 0; i < 8; i++)
     {
-      const u8 Lp0 = Kh[(i + 8) & 7] >> 24;
-      const u8 Lp1 = Kh[(i + 7) & 7] >> 16;
-      const u8 Lp2 = Kh[(i + 6) & 7] >>  8;
-      const u8 Lp3 = Kh[(i + 5) & 7] >>  0;
-      const u8 Lp4 = Kl[(i + 4) & 7] >> 24;
-      const u8 Lp5 = Kl[(i + 3) & 7] >> 16;
-      const u8 Lp6 = Kl[(i + 2) & 7] >>  8;
-      const u8 Lp7 = Kl[(i + 1) & 7] >>  0;
+      const u32 Lp0 = Kh[(i + 8) & 7] >> 24;
+      const u32 Lp1 = Kh[(i + 7) & 7] >> 16;
+      const u32 Lp2 = Kh[(i + 6) & 7] >>  8;
+      const u32 Lp3 = Kh[(i + 5) & 7] >>  0;
+      const u32 Lp4 = Kl[(i + 4) & 7] >> 24;
+      const u32 Lp5 = Kl[(i + 3) & 7] >> 16;
+      const u32 Lp6 = Kl[(i + 2) & 7] >>  8;
+      const u32 Lp7 = Kl[(i + 1) & 7] >>  0;
 
       Lh[i] = BOX (s_Ch, 0, Lp0 & 0xff)
             ^ BOX (s_Ch, 1, Lp1 & 0xff)
@@ -1222,17 +1419,19 @@ static void whirlpool_transform (const u32 w[16], u32 dgst[16], __local u32 s_Ch
     Kh[7] = Lh[7];
     Kl[7] = Ll[7];
 
-    #pragma unroll 8
+    #ifdef _unroll
+    #pragma unroll
+    #endif
     for (i = 0; i < 8; i++)
     {
-      const u8 Lp0 = stateh[(i + 8) & 7] >> 24;
-      const u8 Lp1 = stateh[(i + 7) & 7] >> 16;
-      const u8 Lp2 = stateh[(i + 6) & 7] >>  8;
-      const u8 Lp3 = stateh[(i + 5) & 7] >>  0;
-      const u8 Lp4 = statel[(i + 4) & 7] >> 24;
-      const u8 Lp5 = statel[(i + 3) & 7] >> 16;
-      const u8 Lp6 = statel[(i + 2) & 7] >>  8;
-      const u8 Lp7 = statel[(i + 1) & 7] >>  0;
+      const u32 Lp0 = stateh[(i + 8) & 7] >> 24;
+      const u32 Lp1 = stateh[(i + 7) & 7] >> 16;
+      const u32 Lp2 = stateh[(i + 6) & 7] >>  8;
+      const u32 Lp3 = stateh[(i + 5) & 7] >>  0;
+      const u32 Lp4 = statel[(i + 4) & 7] >> 24;
+      const u32 Lp5 = statel[(i + 3) & 7] >> 16;
+      const u32 Lp6 = statel[(i + 2) & 7] >>  8;
+      const u32 Lp7 = statel[(i + 1) & 7] >>  0;
 
       Lh[i] = BOX (s_Ch, 0, Lp0 & 0xff)
             ^ BOX (s_Ch, 1, Lp1 & 0xff)
@@ -1289,7 +1488,7 @@ static void whirlpool_transform (const u32 w[16], u32 dgst[16], __local u32 s_Ch
   dgst[15] ^= statel[7] ^ w[15];
 }
 
-static void hmac_run2 (const u32 w1[16], const u32 w2[16], const u32 ipad[16], const u32 opad[16], u32 dgst[16], __local u32 s_Ch[8][256], __local u32 s_Cl[8][256])
+void hmac_run2a (const u32 w1[16], const u32 w2[16], const u32 ipad[16], const u32 opad[16], u32 dgst[16], __local u32 (*s_Ch)[256], __local u32 (*s_Cl)[256])
 {
   dgst[ 0] = ipad[ 0];
   dgst[ 1] = ipad[ 1];
@@ -1349,27 +1548,74 @@ static void hmac_run2 (const u32 w1[16], const u32 w2[16], const u32 ipad[16], c
 
   whirlpool_transform (w, dgst, s_Ch, s_Cl);
 
-  w[ 0] = 0x80000000;
-  w[ 1] = 0;
-  w[ 2] = 0;
-  w[ 3] = 0;
-  w[ 4] = 0;
-  w[ 5] = 0;
-  w[ 6] = 0;
-  w[ 7] = 0;
-  w[ 8] = 0;
-  w[ 9] = 0;
-  w[10] = 0;
-  w[11] = 0;
-  w[12] = 0;
-  w[13] = 0;
-  w[14] = 0;
-  w[15] = (64 + 64) * 8;
+  whirlpool_transform_last (dgst, s_Ch, s_Cl);
+}
+
+void hmac_run2b (const u32 w1[16], const u32 ipad[16], const u32 opad[16], u32 dgst[16], __local u32 (*s_Ch)[256], __local u32 (*s_Cl)[256])
+{
+  dgst[ 0] = ipad[ 0];
+  dgst[ 1] = ipad[ 1];
+  dgst[ 2] = ipad[ 2];
+  dgst[ 3] = ipad[ 3];
+  dgst[ 4] = ipad[ 4];
+  dgst[ 5] = ipad[ 5];
+  dgst[ 6] = ipad[ 6];
+  dgst[ 7] = ipad[ 7];
+  dgst[ 8] = ipad[ 8];
+  dgst[ 9] = ipad[ 9];
+  dgst[10] = ipad[10];
+  dgst[11] = ipad[11];
+  dgst[12] = ipad[12];
+  dgst[13] = ipad[13];
+  dgst[14] = ipad[14];
+  dgst[15] = ipad[15];
+
+  whirlpool_transform (w1, dgst, s_Ch, s_Cl);
+
+  whirlpool_transform_last (dgst, s_Ch, s_Cl);
+
+  u32 w[16];
+
+  w[ 0] = dgst[ 0];
+  w[ 1] = dgst[ 1];
+  w[ 2] = dgst[ 2];
+  w[ 3] = dgst[ 3];
+  w[ 4] = dgst[ 4];
+  w[ 5] = dgst[ 5];
+  w[ 6] = dgst[ 6];
+  w[ 7] = dgst[ 7];
+  w[ 8] = dgst[ 8];
+  w[ 9] = dgst[ 9];
+  w[10] = dgst[10];
+  w[11] = dgst[11];
+  w[12] = dgst[12];
+  w[13] = dgst[13];
+  w[14] = dgst[14];
+  w[15] = dgst[15];
+
+  dgst[ 0] = opad[ 0];
+  dgst[ 1] = opad[ 1];
+  dgst[ 2] = opad[ 2];
+  dgst[ 3] = opad[ 3];
+  dgst[ 4] = opad[ 4];
+  dgst[ 5] = opad[ 5];
+  dgst[ 6] = opad[ 6];
+  dgst[ 7] = opad[ 7];
+  dgst[ 8] = opad[ 8];
+  dgst[ 9] = opad[ 9];
+  dgst[10] = opad[10];
+  dgst[11] = opad[11];
+  dgst[12] = opad[12];
+  dgst[13] = opad[13];
+  dgst[14] = opad[14];
+  dgst[15] = opad[15];
 
   whirlpool_transform (w, dgst, s_Ch, s_Cl);
+
+  whirlpool_transform_last (dgst, s_Ch, s_Cl);
 }
 
-static void hmac_init (u32 w[16], u32 ipad[16], u32 opad[16], __local u32 s_Ch[8][256], __local u32 s_Cl[8][256])
+void hmac_init (u32 w[16], u32 ipad[16], u32 opad[16], __local u32 (*s_Ch)[256], __local u32 (*s_Cl)[256])
 {
   w[ 0] ^= 0x36363636;
   w[ 1] ^= 0x36363636;
@@ -1444,7 +1690,7 @@ static void hmac_init (u32 w[16], u32 ipad[16], u32 opad[16], __local u32 s_Ch[8
   whirlpool_transform (w, opad, s_Ch, s_Cl);
 }
 
-static u32 u8add (const u32 a, const u32 b)
+u32 u8add (const u32 a, const u32 b)
 {
   const u32 a1 = (a >>  0) & 0xff;
   const u32 a2 = (a >>  8) & 0xff;
@@ -1469,13 +1715,51 @@ static u32 u8add (const u32 a, const u32 b)
   return r;
 }
 
-__kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_init (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
+__kernel void m06231_init (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV0_buf, __global u32 *d_scryptV1_buf, __global u32 *d_scryptV2_buf, __global u32 *d_scryptV3_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 il_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
 {
   /**
-   * base
+   * modifier
    */
 
   const u32 gid = get_global_id (0);
+  const u32 lid = get_local_id (0);
+  const u32 lsz = get_local_size (0);
+
+  /**
+   * shared
+   */
+
+  __local u32 s_Ch[8][256];
+  __local u32 s_Cl[8][256];
+
+  for (u32 i = lid; i < 256; i += lsz)
+  {
+    s_Ch[0][i] = Ch[0][i];
+    s_Ch[1][i] = Ch[1][i];
+    s_Ch[2][i] = Ch[2][i];
+    s_Ch[3][i] = Ch[3][i];
+    s_Ch[4][i] = Ch[4][i];
+    s_Ch[5][i] = Ch[5][i];
+    s_Ch[6][i] = Ch[6][i];
+    s_Ch[7][i] = Ch[7][i];
+
+    s_Cl[0][i] = Cl[0][i];
+    s_Cl[1][i] = Cl[1][i];
+    s_Cl[2][i] = Cl[2][i];
+    s_Cl[3][i] = Cl[3][i];
+    s_Cl[4][i] = Cl[4][i];
+    s_Cl[5][i] = Cl[5][i];
+    s_Cl[6][i] = Cl[6][i];
+    s_Cl[7][i] = Cl[7][i];
+  }
+
+  barrier (CLK_LOCAL_MEM_FENCE);
+
+  if (gid >= gid_max) return;
+
+  /**
+   * base
+   */
 
   u32 w0[4];
 
@@ -1526,55 +1810,28 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_init (__gl
   w3[2] = u8add (w3[2], esalt_bufs[salt_pos].keyfile_buf[14]);
   w3[3] = u8add (w3[3], esalt_bufs[salt_pos].keyfile_buf[15]);
 
-  /**
-   * shared mem
-   */
-
-  __local u32 s_Ch[8][256];
-  __local u32 s_Cl[8][256];
-
-  const u32 lid = get_local_id (0);
-
-  const u32 lid4 = lid * 4;
-
-  for (u32 i = 0; i < 8; i++)
-  {
-    s_Ch[i][lid4 + 0] = Ch[i][lid4 + 0];
-    s_Ch[i][lid4 + 1] = Ch[i][lid4 + 1];
-    s_Ch[i][lid4 + 2] = Ch[i][lid4 + 2];
-    s_Ch[i][lid4 + 3] = Ch[i][lid4 + 3];
-    s_Cl[i][lid4 + 0] = Cl[i][lid4 + 0];
-    s_Cl[i][lid4 + 1] = Cl[i][lid4 + 1];
-    s_Cl[i][lid4 + 2] = Cl[i][lid4 + 2];
-    s_Cl[i][lid4 + 3] = Cl[i][lid4 + 3];
-  }
-
-  barrier (CLK_LOCAL_MEM_FENCE);
-
-  if (gid >= gid_max) return;
-
   /**
    * salt
    */
 
   u32 salt_buf1[16];
 
-  salt_buf1[ 0] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 0]);
-  salt_buf1[ 1] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 1]);
-  salt_buf1[ 2] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 2]);
-  salt_buf1[ 3] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 3]);
-  salt_buf1[ 4] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 4]);
-  salt_buf1[ 5] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 5]);
-  salt_buf1[ 6] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 6]);
-  salt_buf1[ 7] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 7]);
-  salt_buf1[ 8] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 8]);
-  salt_buf1[ 9] = swap_workaround (esalt_bufs[salt_pos].salt_buf[ 9]);
-  salt_buf1[10] = swap_workaround (esalt_bufs[salt_pos].salt_buf[10]);
-  salt_buf1[11] = swap_workaround (esalt_bufs[salt_pos].salt_buf[11]);
-  salt_buf1[12] = swap_workaround (esalt_bufs[salt_pos].salt_buf[12]);
-  salt_buf1[13] = swap_workaround (esalt_bufs[salt_pos].salt_buf[13]);
-  salt_buf1[14] = swap_workaround (esalt_bufs[salt_pos].salt_buf[14]);
-  salt_buf1[15] = swap_workaround (esalt_bufs[salt_pos].salt_buf[15]);
+  salt_buf1[ 0] = swap32 (esalt_bufs[salt_pos].salt_buf[ 0]);
+  salt_buf1[ 1] = swap32 (esalt_bufs[salt_pos].salt_buf[ 1]);
+  salt_buf1[ 2] = swap32 (esalt_bufs[salt_pos].salt_buf[ 2]);
+  salt_buf1[ 3] = swap32 (esalt_bufs[salt_pos].salt_buf[ 3]);
+  salt_buf1[ 4] = swap32 (esalt_bufs[salt_pos].salt_buf[ 4]);
+  salt_buf1[ 5] = swap32 (esalt_bufs[salt_pos].salt_buf[ 5]);
+  salt_buf1[ 6] = swap32 (esalt_bufs[salt_pos].salt_buf[ 6]);
+  salt_buf1[ 7] = swap32 (esalt_bufs[salt_pos].salt_buf[ 7]);
+  salt_buf1[ 8] = swap32 (esalt_bufs[salt_pos].salt_buf[ 8]);
+  salt_buf1[ 9] = swap32 (esalt_bufs[salt_pos].salt_buf[ 9]);
+  salt_buf1[10] = swap32 (esalt_bufs[salt_pos].salt_buf[10]);
+  salt_buf1[11] = swap32 (esalt_bufs[salt_pos].salt_buf[11]);
+  salt_buf1[12] = swap32 (esalt_bufs[salt_pos].salt_buf[12]);
+  salt_buf1[13] = swap32 (esalt_bufs[salt_pos].salt_buf[13]);
+  salt_buf1[14] = swap32 (esalt_bufs[salt_pos].salt_buf[14]);
+  salt_buf1[15] = swap32 (esalt_bufs[salt_pos].salt_buf[15]);
 
   u32 salt_buf2[16];
 
@@ -1599,22 +1856,22 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_init (__gl
 
   u32 w[16];
 
-  w[ 0] = swap_workaround (w0[0]);
-  w[ 1] = swap_workaround (w0[1]);
-  w[ 2] = swap_workaround (w0[2]);
-  w[ 3] = swap_workaround (w0[3]);
-  w[ 4] = swap_workaround (w1[0]);
-  w[ 5] = swap_workaround (w1[1]);
-  w[ 6] = swap_workaround (w1[2]);
-  w[ 7] = swap_workaround (w1[3]);
-  w[ 8] = swap_workaround (w2[0]);
-  w[ 9] = swap_workaround (w2[1]);
-  w[10] = swap_workaround (w2[2]);
-  w[11] = swap_workaround (w2[3]);
-  w[12] = swap_workaround (w3[0]);
-  w[13] = swap_workaround (w3[1]);
-  w[14] = swap_workaround (w3[2]);
-  w[15] = swap_workaround (w3[3]);
+  w[ 0] = swap32 (w0[0]);
+  w[ 1] = swap32 (w0[1]);
+  w[ 2] = swap32 (w0[2]);
+  w[ 3] = swap32 (w0[3]);
+  w[ 4] = swap32 (w1[0]);
+  w[ 5] = swap32 (w1[1]);
+  w[ 6] = swap32 (w1[2]);
+  w[ 7] = swap32 (w1[3]);
+  w[ 8] = swap32 (w2[0]);
+  w[ 9] = swap32 (w2[1]);
+  w[10] = swap32 (w2[2]);
+  w[11] = swap32 (w2[3]);
+  w[12] = swap32 (w3[0]);
+  w[13] = swap32 (w3[1]);
+  w[14] = swap32 (w3[2]);
+  w[15] = swap32 (w3[3]);
 
   u32 ipad[16];
   u32 opad[16];
@@ -1661,7 +1918,7 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_init (__gl
 
     u32 dgst[16];
 
-    hmac_run2 (salt_buf1, salt_buf2, ipad, opad, dgst, s_Ch, s_Cl);
+    hmac_run2a (salt_buf1, salt_buf2, ipad, opad, dgst, s_Ch, s_Cl);
 
     tmps[gid].dgst[i +  0] = dgst[ 0];
     tmps[gid].dgst[i +  1] = dgst[ 1];
@@ -1699,34 +1956,50 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_init (__gl
   }
 }
 
-__kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_loop (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
+__kernel void m06231_loop (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV0_buf, __global u32 *d_scryptV1_buf, __global u32 *d_scryptV2_buf, __global u32 *d_scryptV3_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 il_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
 {
-  const u32 truecrypt_mdlen = salt_bufs[0].truecrypt_mdlen;
-
-  __local u32 s_Ch[8][256];
-  __local u32 s_Cl[8][256];
+  /**
+   * modifier
+   */
 
   const u32 gid = get_global_id (0);
   const u32 lid = get_local_id (0);
+  const u32 lsz = get_local_size (0);
+
+  /**
+   * shared
+   */
 
-  const u32 lid4 = lid * 4;
+  __local u32 s_Ch[8][256];
+  __local u32 s_Cl[8][256];
 
-  for (u32 i = 0; i < 8; i++)
+  for (u32 i = lid; i < 256; i += lsz)
   {
-    s_Ch[i][lid4 + 0] = Ch[i][lid4 + 0];
-    s_Ch[i][lid4 + 1] = Ch[i][lid4 + 1];
-    s_Ch[i][lid4 + 2] = Ch[i][lid4 + 2];
-    s_Ch[i][lid4 + 3] = Ch[i][lid4 + 3];
-    s_Cl[i][lid4 + 0] = Cl[i][lid4 + 0];
-    s_Cl[i][lid4 + 1] = Cl[i][lid4 + 1];
-    s_Cl[i][lid4 + 2] = Cl[i][lid4 + 2];
-    s_Cl[i][lid4 + 3] = Cl[i][lid4 + 3];
+    s_Ch[0][i] = Ch[0][i];
+    s_Ch[1][i] = Ch[1][i];
+    s_Ch[2][i] = Ch[2][i];
+    s_Ch[3][i] = Ch[3][i];
+    s_Ch[4][i] = Ch[4][i];
+    s_Ch[5][i] = Ch[5][i];
+    s_Ch[6][i] = Ch[6][i];
+    s_Ch[7][i] = Ch[7][i];
+
+    s_Cl[0][i] = Cl[0][i];
+    s_Cl[1][i] = Cl[1][i];
+    s_Cl[2][i] = Cl[2][i];
+    s_Cl[3][i] = Cl[3][i];
+    s_Cl[4][i] = Cl[4][i];
+    s_Cl[5][i] = Cl[5][i];
+    s_Cl[6][i] = Cl[6][i];
+    s_Cl[7][i] = Cl[7][i];
   }
 
   barrier (CLK_LOCAL_MEM_FENCE);
 
   if (gid >= gid_max) return;
 
+  const u32 truecrypt_mdlen = salt_bufs[0].truecrypt_mdlen;
+
   u32 ipad[16];
 
   ipad[ 0] = tmps[gid].ipad[ 0];
@@ -1826,26 +2099,7 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_loop (__gl
       w1[14] = dgst[14];
       w1[15] = dgst[15];
 
-      u32 w2[16];
-
-      w2[ 0] = 0x80000000;
-      w2[ 1] = 0;
-      w2[ 2] = 0;
-      w2[ 3] = 0;
-      w2[ 4] = 0;
-      w2[ 5] = 0;
-      w2[ 6] = 0;
-      w2[ 7] = 0;
-      w2[ 8] = 0;
-      w2[ 9] = 0;
-      w2[10] = 0;
-      w2[11] = 0;
-      w2[12] = 0;
-      w2[13] = 0;
-      w2[14] = 0;
-      w2[15] = (64 + 64) * 8;
-
-      hmac_run2 (w1, w2, ipad, opad, dgst, s_Ch, s_Cl);
+      hmac_run2b (w1, ipad, opad, dgst, s_Ch, s_Cl);
 
       out[ 0] ^= dgst[ 0];
       out[ 1] ^= dgst[ 1];
@@ -1901,7 +2155,7 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_loop (__gl
   }
 }
 
-__kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
+__kernel void m06231_comp (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global tc_tmp_t *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global tc_t *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV0_buf, __global u32 *d_scryptV1_buf, __global u32 *d_scryptV2_buf, __global u32 *d_scryptV3_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 il_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
 {
   /**
    * base
@@ -1914,25 +2168,25 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__gl
 
   u32 ukey1[8];
 
-  ukey1[0] = swap_workaround (tmps[gid].out[ 0]);
-  ukey1[1] = swap_workaround (tmps[gid].out[ 1]);
-  ukey1[2] = swap_workaround (tmps[gid].out[ 2]);
-  ukey1[3] = swap_workaround (tmps[gid].out[ 3]);
-  ukey1[4] = swap_workaround (tmps[gid].out[ 4]);
-  ukey1[5] = swap_workaround (tmps[gid].out[ 5]);
-  ukey1[6] = swap_workaround (tmps[gid].out[ 6]);
-  ukey1[7] = swap_workaround (tmps[gid].out[ 7]);
+  ukey1[0] = swap32 (tmps[gid].out[ 0]);
+  ukey1[1] = swap32 (tmps[gid].out[ 1]);
+  ukey1[2] = swap32 (tmps[gid].out[ 2]);
+  ukey1[3] = swap32 (tmps[gid].out[ 3]);
+  ukey1[4] = swap32 (tmps[gid].out[ 4]);
+  ukey1[5] = swap32 (tmps[gid].out[ 5]);
+  ukey1[6] = swap32 (tmps[gid].out[ 6]);
+  ukey1[7] = swap32 (tmps[gid].out[ 7]);
 
   u32 ukey2[8];
 
-  ukey2[0] = swap_workaround (tmps[gid].out[ 8]);
-  ukey2[1] = swap_workaround (tmps[gid].out[ 9]);
-  ukey2[2] = swap_workaround (tmps[gid].out[10]);
-  ukey2[3] = swap_workaround (tmps[gid].out[11]);
-  ukey2[4] = swap_workaround (tmps[gid].out[12]);
-  ukey2[5] = swap_workaround (tmps[gid].out[13]);
-  ukey2[6] = swap_workaround (tmps[gid].out[14]);
-  ukey2[7] = swap_workaround (tmps[gid].out[15]);
+  ukey2[0] = swap32 (tmps[gid].out[ 8]);
+  ukey2[1] = swap32 (tmps[gid].out[ 9]);
+  ukey2[2] = swap32 (tmps[gid].out[10]);
+  ukey2[3] = swap32 (tmps[gid].out[11]);
+  ukey2[4] = swap32 (tmps[gid].out[12]);
+  ukey2[5] = swap32 (tmps[gid].out[13]);
+  ukey2[6] = swap32 (tmps[gid].out[14]);
+  ukey2[7] = swap32 (tmps[gid].out[15]);
 
   u32 data[4];
 
@@ -1941,6 +2195,8 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__gl
   data[2] = esalt_bufs[0].data_buf[2];
   data[3] = esalt_bufs[0].data_buf[3];
 
+  const u32 signature = esalt_bufs[0].signature;
+
   u32 tmp[4];
 
   {
@@ -1951,11 +2207,9 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__gl
 
     aes256_decrypt_xts (ukey1, ukey2, tmp, tmp);
 
-    if (((tmp[0] == 0x45555254) && (tmp[3] == 0)) || ((tmp[0] == 0x45555254) && ((tmp[1] >> 16) <= 5)))
+    if (((tmp[0] == signature) && (tmp[3] == 0)) || ((tmp[0] == signature) && ((tmp[1] >> 16) <= 5)))
     {
-      mark_hash (plains_buf, hashes_shown, 0, gid, 0);
-
-      d_return_buf[lid] = 1;
+      mark_hash (plains_buf, d_return_buf, salt_pos, 0, 0, gid, 0);
     }
   }
 
@@ -1967,11 +2221,9 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__gl
 
     serpent256_decrypt_xts (ukey1, ukey2, tmp, tmp);
 
-    if (((tmp[0] == 0x45555254) && (tmp[3] == 0)) || ((tmp[0] == 0x45555254) && ((tmp[1] >> 16) <= 5)))
+    if (((tmp[0] == signature) && (tmp[3] == 0)) || ((tmp[0] == signature) && ((tmp[1] >> 16) <= 5)))
     {
-      mark_hash (plains_buf, hashes_shown, 0, gid, 0);
-
-      d_return_buf[lid] = 1;
+      mark_hash (plains_buf, d_return_buf, salt_pos, 0, 0, gid, 0);
     }
   }
 
@@ -1983,11 +2235,9 @@ __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m06231_comp (__gl
 
     twofish256_decrypt_xts (ukey1, ukey2, tmp, tmp);
 
-    if (((tmp[0] == 0x45555254) && (tmp[3] == 0)) || ((tmp[0] == 0x45555254) && ((tmp[1] >> 16) <= 5)))
+    if (((tmp[0] == signature) && (tmp[3] == 0)) || ((tmp[0] == signature) && ((tmp[1] >> 16) <= 5)))
     {
-      mark_hash (plains_buf, hashes_shown, 0, gid, 0);
-
-      d_return_buf[lid] = 1;
+      mark_hash (plains_buf, d_return_buf, salt_pos, 0, 0, gid, 0);
     }
   }
 }