Zero pws_buf before reuse
[hashcat.git] / OpenCL / m00140_a1.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA1_
7
8 #define NEW_SIMD_CODE
9
10 #include "include/constants.h"
11 #include "include/kernel_vendor.h"
12
13 #define DGST_R0 3
14 #define DGST_R1 4
15 #define DGST_R2 2
16 #define DGST_R3 1
17
18 #include "include/kernel_functions.c"
19 #include "OpenCL/types_ocl.c"
20 #include "OpenCL/common.c"
21 #include "OpenCL/simd.c"
22
23 // no unicode yet
24
25 __kernel void m00140_m04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
26 {
27   /**
28    * modifier
29    */
30
31   const u32 lid = get_local_id (0);
32
33   /**
34    * base
35    */
36
37   const u32 gid = get_global_id (0);
38
39   if (gid >= gid_max) return;
40
41   u32 pws0[4] = { 0 };
42   u32 pws1[4] = { 0 };
43
44   pws0[0] = pws[gid].i[0];
45   pws0[1] = pws[gid].i[1];
46   pws0[2] = pws[gid].i[2];
47   pws0[3] = pws[gid].i[3];
48   pws1[0] = pws[gid].i[4];
49   pws1[1] = pws[gid].i[5];
50   pws1[2] = pws[gid].i[6];
51   pws1[3] = pws[gid].i[7];
52
53   const u32 pw_l_len = pws[gid].pw_len;
54
55   /**
56    * salt
57    */
58
59   u32 salt_buf0[4];
60   u32 salt_buf1[4];
61
62   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
63   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
64   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
65   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
66   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
67   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
68   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
69   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
70
71   const u32 salt_len = salt_bufs[salt_pos].salt_len;
72
73   /**
74    * loop
75    */
76
77   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos += VECT_SIZE)
78   {
79     const u32x pw_r_len = pwlenx_create_combt (combs_buf, il_pos);
80
81     const u32x pw_len = pw_l_len + pw_r_len;
82
83     u32x wordr0[4] = { 0 };
84     u32x wordr1[4] = { 0 };
85     u32x wordr2[4] = { 0 };
86     u32x wordr3[4] = { 0 };
87
88     wordr0[0] = ix_create_combt (combs_buf, il_pos, 0);
89     wordr0[1] = ix_create_combt (combs_buf, il_pos, 1);
90     wordr0[2] = ix_create_combt (combs_buf, il_pos, 2);
91     wordr0[3] = ix_create_combt (combs_buf, il_pos, 3);
92     wordr1[0] = ix_create_combt (combs_buf, il_pos, 4);
93     wordr1[1] = ix_create_combt (combs_buf, il_pos, 5);
94     wordr1[2] = ix_create_combt (combs_buf, il_pos, 6);
95     wordr1[3] = ix_create_combt (combs_buf, il_pos, 7);
96
97     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
98     {
99       switch_buffer_by_offset_le (wordr0, wordr1, wordr2, wordr3, pw_l_len);
100     }
101
102     /**
103      * prepend salt
104      */
105
106     const u32 pw_salt_len = (pw_len * 2) + salt_len;
107
108     u32x w0[4];
109     u32x w1[4];
110     u32x w2[4];
111     u32x w3[4];
112
113     w0[0] = wordl0[0] | wordr0[0];
114     w0[1] = wordl0[1] | wordr0[1];
115     w0[2] = wordl0[2] | wordr0[2];
116     w0[3] = wordl0[3] | wordr0[3];
117     w1[0] = wordl1[0] | wordr1[0];
118     w1[1] = wordl1[1] | wordr1[1];
119     w1[2] = wordl1[2] | wordr1[2];
120     w1[3] = wordl1[3] | wordr1[3];
121     w2[0] = 0;
122     w2[1] = 0;
123     w2[2] = 0;
124     w2[3] = 0;
125     w3[0] = 0;
126     w3[1] = 0;
127     w3[2] = 0;
128     w3[3] = 0;
129
130     u32x w0_t[4];
131     u32x w1_t[4];
132     u32x w2_t[4];
133     u32x w3_t[4];
134
135     make_unicode (w0, w0_t, w1_t);
136     make_unicode (w1, w2_t, w3_t);
137
138     switch_buffer_by_offset_le (w0_t, w1_t, w2_t, w3_t, salt_len);
139
140     w0_t[0] |= salt_buf0[0];
141     w0_t[1] |= salt_buf0[1];
142     w0_t[2] |= salt_buf0[2];
143     w0_t[3] |= salt_buf0[3];
144     w1_t[0] |= salt_buf1[0];
145     w1_t[1] |= salt_buf1[1];
146     w1_t[2] |= salt_buf1[2];
147     w1_t[3] |= salt_buf1[3];
148
149     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
150
151     w3_t[3] = pw_salt_len * 8;
152
153     /**
154      * sha1
155      */
156
157     w0_t[0] = swap32 (w0_t[0]);
158     w0_t[1] = swap32 (w0_t[1]);
159     w0_t[2] = swap32 (w0_t[2]);
160     w0_t[3] = swap32 (w0_t[3]);
161     w1_t[0] = swap32 (w1_t[0]);
162     w1_t[1] = swap32 (w1_t[1]);
163     w1_t[2] = swap32 (w1_t[2]);
164     w1_t[3] = swap32 (w1_t[3]);
165     w2_t[0] = swap32 (w2_t[0]);
166     w2_t[1] = swap32 (w2_t[1]);
167     w2_t[2] = swap32 (w2_t[2]);
168     w2_t[3] = swap32 (w2_t[3]);
169     w3_t[0] = swap32 (w3_t[0]);
170     w3_t[1] = swap32 (w3_t[1]);
171     //w3_t[2] = swap32 (w3_t[2]);
172     //w3_t[3] = swap32 (w3_t[3]);
173
174     u32x a = SHA1M_A;
175     u32x b = SHA1M_B;
176     u32x c = SHA1M_C;
177     u32x d = SHA1M_D;
178     u32x e = SHA1M_E;
179
180     #undef K
181     #define K SHA1C00
182
183     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
184     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
185     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
186     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
187     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
188     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
189     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
190     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
191     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
192     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
193     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
194     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
195     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
196     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
197     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
198     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
199     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
200     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
201     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
202     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
203
204     #undef K
205     #define K SHA1C01
206
207     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
208     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
209     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
210     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
211     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
212     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
213     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
214     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
215     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
216     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
217     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
218     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
219     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
220     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
221     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
222     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
223     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
224     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
225     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
226     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
227
228     #undef K
229     #define K SHA1C02
230
231     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
232     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
233     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
234     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
235     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
236     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
237     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
238     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
239     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
240     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
241     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
242     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
243     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
244     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
245     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
246     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
247     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
248     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
249     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
250     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
251
252     #undef K
253     #define K SHA1C03
254
255     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
256     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
257     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
258     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
259     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
260     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
261     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
262     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
263     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
264     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
265     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
266     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
267     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
268     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
269     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
270     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
271     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
272     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
273     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
274     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
275
276     COMPARE_M_SIMD (d, e, c, b);
277   }
278 }
279
280 __kernel void m00140_m08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
281 {
282 }
283
284 __kernel void m00140_m16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
285 {
286 }
287
288 __kernel void m00140_s04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
289 {
290   /**
291    * modifier
292    */
293
294   const u32 lid = get_local_id (0);
295
296   /**
297    * base
298    */
299
300   const u32 gid = get_global_id (0);
301
302   if (gid >= gid_max) return;
303
304   u32 pws0[4] = { 0 };
305   u32 pws1[4] = { 0 };
306
307   pws0[0] = pws[gid].i[0];
308   pws0[1] = pws[gid].i[1];
309   pws0[2] = pws[gid].i[2];
310   pws0[3] = pws[gid].i[3];
311   pws1[0] = pws[gid].i[4];
312   pws1[1] = pws[gid].i[5];
313   pws1[2] = pws[gid].i[6];
314   pws1[3] = pws[gid].i[7];
315
316   const u32 pw_l_len = pws[gid].pw_len;
317
318   /**
319    * salt
320    */
321
322   u32 salt_buf0[4];
323   u32 salt_buf1[4];
324
325   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
326   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
327   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
328   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
329   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
330   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
331   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
332   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
333
334   const u32 salt_len = salt_bufs[salt_pos].salt_len;
335
336   /**
337    * digest
338    */
339
340   const u32 search[4] =
341   {
342     digests_buf[digests_offset].digest_buf[DGST_R0],
343     digests_buf[digests_offset].digest_buf[DGST_R1],
344     digests_buf[digests_offset].digest_buf[DGST_R2],
345     digests_buf[digests_offset].digest_buf[DGST_R3]
346   };
347
348   /**
349    * reverse
350    */
351
352   const u32 e_rev = rotl32_S (search[1], 2u);
353
354   /**
355    * loop
356    */
357
358   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos += VECT_SIZE)
359   {
360     const u32x pw_r_len = pwlenx_create_combt (combs_buf, il_pos);
361
362     const u32x pw_len = pw_l_len + pw_r_len;
363
364     u32x wordr0[4] = { 0 };
365     u32x wordr1[4] = { 0 };
366     u32x wordr2[4] = { 0 };
367     u32x wordr3[4] = { 0 };
368
369     wordr0[0] = ix_create_combt (combs_buf, il_pos, 0);
370     wordr0[1] = ix_create_combt (combs_buf, il_pos, 1);
371     wordr0[2] = ix_create_combt (combs_buf, il_pos, 2);
372     wordr0[3] = ix_create_combt (combs_buf, il_pos, 3);
373     wordr1[0] = ix_create_combt (combs_buf, il_pos, 4);
374     wordr1[1] = ix_create_combt (combs_buf, il_pos, 5);
375     wordr1[2] = ix_create_combt (combs_buf, il_pos, 6);
376     wordr1[3] = ix_create_combt (combs_buf, il_pos, 7);
377
378     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
379     {
380       switch_buffer_by_offset_le (wordr0, wordr1, wordr2, wordr3, pw_l_len);
381     }
382
383     /**
384      * prepend salt
385      */
386
387     const u32 pw_salt_len = (pw_len * 2) + salt_len;
388
389     u32x w0[4];
390     u32x w1[4];
391     u32x w2[4];
392     u32x w3[4];
393
394     w0[0] = wordl0[0] | wordr0[0];
395     w0[1] = wordl0[1] | wordr0[1];
396     w0[2] = wordl0[2] | wordr0[2];
397     w0[3] = wordl0[3] | wordr0[3];
398     w1[0] = wordl1[0] | wordr1[0];
399     w1[1] = wordl1[1] | wordr1[1];
400     w1[2] = wordl1[2] | wordr1[2];
401     w1[3] = wordl1[3] | wordr1[3];
402     w2[0] = 0;
403     w2[1] = 0;
404     w2[2] = 0;
405     w2[3] = 0;
406     w3[0] = 0;
407     w3[1] = 0;
408     w3[2] = 0;
409     w3[3] = 0;
410
411     u32x w0_t[4];
412     u32x w1_t[4];
413     u32x w2_t[4];
414     u32x w3_t[4];
415
416     make_unicode (w0, w0_t, w1_t);
417     make_unicode (w1, w2_t, w3_t);
418
419     switch_buffer_by_offset_le (w0_t, w1_t, w2_t, w3_t, salt_len);
420
421     w0_t[0] |= salt_buf0[0];
422     w0_t[1] |= salt_buf0[1];
423     w0_t[2] |= salt_buf0[2];
424     w0_t[3] |= salt_buf0[3];
425     w1_t[0] |= salt_buf1[0];
426     w1_t[1] |= salt_buf1[1];
427     w1_t[2] |= salt_buf1[2];
428     w1_t[3] |= salt_buf1[3];
429
430     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
431
432     w3_t[3] = pw_salt_len * 8;
433
434     /**
435      * sha1
436      */
437
438     w0_t[0] = swap32 (w0_t[0]);
439     w0_t[1] = swap32 (w0_t[1]);
440     w0_t[2] = swap32 (w0_t[2]);
441     w0_t[3] = swap32 (w0_t[3]);
442     w1_t[0] = swap32 (w1_t[0]);
443     w1_t[1] = swap32 (w1_t[1]);
444     w1_t[2] = swap32 (w1_t[2]);
445     w1_t[3] = swap32 (w1_t[3]);
446     w2_t[0] = swap32 (w2_t[0]);
447     w2_t[1] = swap32 (w2_t[1]);
448     w2_t[2] = swap32 (w2_t[2]);
449     w2_t[3] = swap32 (w2_t[3]);
450     w3_t[0] = swap32 (w3_t[0]);
451     w3_t[1] = swap32 (w3_t[1]);
452     //w3_t[2] = swap32 (w3_t[2]);
453     //w3_t[3] = swap32 (w3_t[3]);
454
455     u32x a = SHA1M_A;
456     u32x b = SHA1M_B;
457     u32x c = SHA1M_C;
458     u32x d = SHA1M_D;
459     u32x e = SHA1M_E;
460
461     #undef K
462     #define K SHA1C00
463
464     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
465     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
466     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
467     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
468     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
469     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
470     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
471     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
472     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
473     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
474     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
475     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
476     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
477     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
478     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
479     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
480     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
481     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
482     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
483     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
484
485     #undef K
486     #define K SHA1C01
487
488     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
489     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
490     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
491     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
492     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
493     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
494     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
495     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
496     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
497     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
498     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
499     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
500     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
501     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
502     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
503     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
504     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
505     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
506     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
507     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
508
509     #undef K
510     #define K SHA1C02
511
512     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
513     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
514     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
515     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
516     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
517     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
518     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
519     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
520     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
521     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
522     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
523     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
524     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
525     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
526     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
527     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
528     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
529     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
530     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
531     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
532
533     #undef K
534     #define K SHA1C03
535
536     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
537     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
538     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
539     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
540     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
541     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
542     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
543     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
544     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
545     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
546     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
547     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
548     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
549     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
550     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
551     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
552     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
553
554     if (MATCHES_NONE_VS (e, e_rev)) continue;
555
556     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
557     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
558     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
559
560     COMPARE_S_SIMD (d, e, c, b);
561   }
562 }
563
564 __kernel void m00140_s08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
565 {
566 }
567
568 __kernel void m00140_s16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
569 {
570 }