some axcrypt fixes
[hashcat.git] / OpenCL / inc_types.cl
1 /**
2  * Authors.....: Jens Steube <jens.steube@gmail.com>
3  *               magnum <john.magnum@hushmail.com>
4  *
5  * License.....: MIT
6  */
7
8 typedef uchar  u8;
9 typedef ushort u16;
10 typedef uint   u32;
11 typedef ulong  u64;
12
13 #ifndef NEW_SIMD_CODE
14 #undef  VECT_SIZE
15 #define VECT_SIZE 1
16 #endif
17
18 #define CONCAT(a, b)       a##b
19 #define VTYPE(type, width) CONCAT(type, width)
20
21 #if VECT_SIZE == 1
22 typedef uchar   u8x;
23 typedef ushort  u16x;
24 typedef uint    u32x;
25 typedef ulong   u64x;
26 #else
27 typedef VTYPE(uchar,  VECT_SIZE)  u8x;
28 typedef VTYPE(ushort, VECT_SIZE) u16x;
29 typedef VTYPE(uint,   VECT_SIZE) u32x;
30 typedef VTYPE(ulong,  VECT_SIZE) u64x;
31 #endif
32
33 inline u32 l32_from_64_S (u64 a)
34 {
35   const u32 r = (u32) (a);
36
37   return r;
38 }
39
40 inline u32 h32_from_64_S (u64 a)
41 {
42   a >>= 32;
43
44   const u32 r = (u32) (a);
45
46   return r;
47 }
48
49 inline u64 hl32_to_64_S (const u32 a, const u32 b)
50 {
51   return as_ulong ((uint2) (b, a));
52 }
53
54 inline u32x l32_from_64 (u64x a)
55 {
56   u32x r;
57
58   #if VECT_SIZE == 1
59   r    = (u32) a;
60   #endif
61
62   #if VECT_SIZE >= 2
63   r.s0 = (u32) a.s0;
64   r.s1 = (u32) a.s1;
65   #endif
66
67   #if VECT_SIZE >= 4
68   r.s2 = (u32) a.s2;
69   r.s3 = (u32) a.s3;
70   #endif
71
72   #if VECT_SIZE >= 8
73   r.s4 = (u32) a.s4;
74   r.s5 = (u32) a.s5;
75   r.s6 = (u32) a.s6;
76   r.s7 = (u32) a.s7;
77   #endif
78
79   #if VECT_SIZE >= 16
80   r.s8 = (u32) a.s8;
81   r.s9 = (u32) a.s9;
82   r.sa = (u32) a.sa;
83   r.sb = (u32) a.sb;
84   r.sc = (u32) a.sc;
85   r.sd = (u32) a.sd;
86   r.se = (u32) a.se;
87   r.sf = (u32) a.sf;
88   #endif
89
90   return r;
91 }
92
93 inline u32x h32_from_64 (u64x a)
94 {
95   a >>= 32;
96
97   u32x r;
98
99   #if VECT_SIZE == 1
100   r    = (u32) a;
101   #endif
102
103   #if VECT_SIZE >= 2
104   r.s0 = (u32) a.s0;
105   r.s1 = (u32) a.s1;
106   #endif
107
108   #if VECT_SIZE >= 4
109   r.s2 = (u32) a.s2;
110   r.s3 = (u32) a.s3;
111   #endif
112
113   #if VECT_SIZE >= 8
114   r.s4 = (u32) a.s4;
115   r.s5 = (u32) a.s5;
116   r.s6 = (u32) a.s6;
117   r.s7 = (u32) a.s7;
118   #endif
119
120   #if VECT_SIZE >= 16
121   r.s8 = (u32) a.s8;
122   r.s9 = (u32) a.s9;
123   r.sa = (u32) a.sa;
124   r.sb = (u32) a.sb;
125   r.sc = (u32) a.sc;
126   r.sd = (u32) a.sd;
127   r.se = (u32) a.se;
128   r.sf = (u32) a.sf;
129   #endif
130
131   return r;
132 }
133
134 inline u64x hl32_to_64 (const u32x a, const u32x b)
135 {
136   u64x r;
137
138   #if VECT_SIZE == 1
139   r    = as_ulong ((uint2) (b,    a));
140   #endif
141
142   #if VECT_SIZE >= 2
143   r.s0 = as_ulong ((uint2) (b.s0, a.s0));
144   r.s1 = as_ulong ((uint2) (b.s1, a.s1));
145   #endif
146
147   #if VECT_SIZE >= 4
148   r.s2 = as_ulong ((uint2) (b.s2, a.s2));
149   r.s3 = as_ulong ((uint2) (b.s3, a.s3));
150   #endif
151
152   #if VECT_SIZE >= 8
153   r.s4 = as_ulong ((uint2) (b.s4, a.s4));
154   r.s5 = as_ulong ((uint2) (b.s5, a.s5));
155   r.s6 = as_ulong ((uint2) (b.s6, a.s6));
156   r.s7 = as_ulong ((uint2) (b.s7, a.s7));
157   #endif
158
159   #if VECT_SIZE >= 16
160   r.s8 = as_ulong ((uint2) (b.s8, a.s8));
161   r.s9 = as_ulong ((uint2) (b.s9, a.s9));
162   r.sa = as_ulong ((uint2) (b.sa, a.sa));
163   r.sb = as_ulong ((uint2) (b.sb, a.sb));
164   r.sc = as_ulong ((uint2) (b.sc, a.sc));
165   r.sd = as_ulong ((uint2) (b.sd, a.sd));
166   r.se = as_ulong ((uint2) (b.se, a.se));
167   r.sf = as_ulong ((uint2) (b.sf, a.sf));
168   #endif
169
170   return r;
171 }
172
173 #ifdef IS_AMD
174 inline u32 swap32_S (const u32 v)
175 {
176   return (as_uint (as_uchar4 (v).s3210));
177 }
178
179 inline u64 swap64_S (const u64 v)
180 {
181   return (as_ulong (as_uchar8 (v).s76543210));
182 }
183
184 inline u32 rotr32_S (const u32 a, const u32 n)
185 {
186   return rotate (a, 32 - n);
187 }
188
189 inline u32 rotl32_S (const u32 a, const u32 n)
190 {
191   return rotate (a, n);
192 }
193
194 inline u64 rotr64_S (const u64 a, const u32 n)
195 {
196   const u32 a0 = h32_from_64_S (a);
197   const u32 a1 = l32_from_64_S (a);
198
199   const u32 t0 = (n >= 32) ? amd_bitalign (a0, a1, n - 32) : amd_bitalign (a1, a0, n);
200   const u32 t1 = (n >= 32) ? amd_bitalign (a1, a0, n - 32) : amd_bitalign (a0, a1, n);
201
202   const u64 r = hl32_to_64_S (t0, t1);
203
204   return r;
205 }
206
207 inline u64 rotl64_S (const u64 a, const u32 n)
208 {
209   return rotr64_S (a, 64 - n);
210 }
211
212 inline u32x swap32 (const u32x v)
213 {
214   return ((v >> 24) & 0x000000ff)
215        | ((v >>  8) & 0x0000ff00)
216        | ((v <<  8) & 0x00ff0000)
217        | ((v << 24) & 0xff000000);
218 }
219
220 inline u64x swap64 (const u64x v)
221 {
222   return ((v >> 56) & 0x00000000000000ff)
223        | ((v >> 40) & 0x000000000000ff00)
224        | ((v >> 24) & 0x0000000000ff0000)
225        | ((v >>  8) & 0x00000000ff000000)
226        | ((v <<  8) & 0x000000ff00000000)
227        | ((v << 24) & 0x0000ff0000000000)
228        | ((v << 40) & 0x00ff000000000000)
229        | ((v << 56) & 0xff00000000000000);
230 }
231
232 inline u32x rotr32 (const u32x a, const u32 n)
233 {
234   return rotate (a, 32 - n);
235 }
236
237 inline u32x rotl32 (const u32x a, const u32 n)
238 {
239   return rotate (a, n);
240 }
241
242 inline u64x rotr64 (const u64x a, const u32 n)
243 {
244   const u32x a0 = h32_from_64 (a);
245   const u32x a1 = l32_from_64 (a);
246
247   const u32x t0 = (n >= 32) ? amd_bitalign (a0, a1, n - 32) : amd_bitalign (a1, a0, n);
248   const u32x t1 = (n >= 32) ? amd_bitalign (a1, a0, n - 32) : amd_bitalign (a0, a1, n);
249
250   const u64x r = hl32_to_64 (t0, t1);
251
252   return r;
253 }
254
255 inline u64x rotl64 (const u64x a, const u32 n)
256 {
257   return rotr64 (a, 64 - n);
258 }
259
260 inline u32x __bfe (const u32x a, const u32x b, const u32x c)
261 {
262   return amd_bfe (a, b, c);
263 }
264
265 inline u32 __bfe_S (const u32 a, const u32 b, const u32 c)
266 {
267   return amd_bfe (a, b, c);
268 }
269
270 inline u32 amd_bytealign_S (const u32 a, const u32 b, const u32 c)
271 {
272   return amd_bytealign (a, b, c);
273 }
274 #endif
275
276 #ifdef IS_NV
277 inline u32 swap32_S (const u32 v)
278 {
279   u32 r;
280
281   asm ("prmt.b32 %0, %1, 0, 0x0123;" : "=r"(r) : "r"(v));
282
283   return r;
284 }
285
286 inline u64 swap64_S (const u64 v)
287 {
288   u32 il;
289   u32 ir;
290
291   asm ("mov.b64 {%0, %1}, %2;" : "=r"(il), "=r"(ir) : "l"(v));
292
293   u32 tl;
294   u32 tr;
295
296   asm ("prmt.b32 %0, %1, 0, 0x0123;" : "=r"(tl) : "r"(il));
297   asm ("prmt.b32 %0, %1, 0, 0x0123;" : "=r"(tr) : "r"(ir));
298
299   u64 r;
300
301   asm ("mov.b64 %0, {%1, %2};" : "=l"(r) : "r"(tr), "r"(tl));
302
303   return r;
304 }
305
306 inline u32 rotr32_S (const u32 a, const u32 n)
307 {
308   return rotate (a, 32 - n);
309 }
310
311 inline u32 rotl32_S (const u32 a, const u32 n)
312 {
313   return rotate (a, n);
314 }
315
316 inline u64 rotr64_S (const u64 a, const u32 n)
317 {
318   return rotate (a, (u64) 64 - n);
319 }
320
321 inline u64 rotl64_S (const u64 a, const u32 n)
322 {
323   return rotr64_S (a, 64 - n);
324 }
325
326 inline u32x swap32 (const u32x v)
327 {
328   return ((v >> 24) & 0x000000ff)
329        | ((v >>  8) & 0x0000ff00)
330        | ((v <<  8) & 0x00ff0000)
331        | ((v << 24) & 0xff000000);
332 }
333
334 inline u64x swap64 (const u64x v)
335 {
336   return ((v >> 56) & 0x00000000000000ff)
337        | ((v >> 40) & 0x000000000000ff00)
338        | ((v >> 24) & 0x0000000000ff0000)
339        | ((v >>  8) & 0x00000000ff000000)
340        | ((v <<  8) & 0x000000ff00000000)
341        | ((v << 24) & 0x0000ff0000000000)
342        | ((v << 40) & 0x00ff000000000000)
343        | ((v << 56) & 0xff00000000000000);
344 }
345
346 inline u32x rotr32 (const u32x a, const u32 n)
347 {
348   return rotate (a, 32 - n);
349 }
350
351 inline u32x rotl32 (const u32x a, const u32 n)
352 {
353   return rotate (a, n);
354 }
355
356 inline u64x rotr64 (const u64x a, const u32 n)
357 {
358   return rotate (a, (u64) 64 - n);
359 }
360
361 inline u64x rotl64 (const u64x a, const u32 n)
362 {
363   return rotate (a, (u64) n);
364 }
365
366 inline u32x __byte_perm (const u32x a, const u32x b, const u32x c)
367 {
368   u32x r;
369
370   #if VECT_SIZE == 1
371   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r)    : "r"(a),    "r"(b),    "r"(c)   );
372   #endif
373
374   #if VECT_SIZE >= 2
375   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s0) : "r"(a.s0), "r"(b.s0), "r"(c.s0));
376   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s1) : "r"(a.s1), "r"(b.s1), "r"(c.s1));
377   #endif
378
379   #if VECT_SIZE >= 4
380   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s2) : "r"(a.s2), "r"(b.s2), "r"(c.s2));
381   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s3) : "r"(a.s3), "r"(b.s3), "r"(c.s3));
382   #endif
383
384   #if VECT_SIZE >= 8
385   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s4) : "r"(a.s4), "r"(b.s4), "r"(c.s4));
386   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s5) : "r"(a.s5), "r"(b.s5), "r"(c.s5));
387   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s6) : "r"(a.s6), "r"(b.s6), "r"(c.s6));
388   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s7) : "r"(a.s7), "r"(b.s7), "r"(c.s7));
389   #endif
390
391   #if VECT_SIZE >= 16
392   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s8) : "r"(a.s8), "r"(b.s8), "r"(c.s8));
393   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.s9) : "r"(a.s9), "r"(b.s9), "r"(c.s9));
394   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.sa) : "r"(a.sa), "r"(b.sa), "r"(c.sa));
395   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.sb) : "r"(a.sb), "r"(b.sb), "r"(c.sb));
396   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.sc) : "r"(a.sc), "r"(b.sc), "r"(c.sc));
397   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.sd) : "r"(a.sd), "r"(b.sd), "r"(c.sd));
398   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.se) : "r"(a.se), "r"(b.se), "r"(c.se));
399   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r.sf) : "r"(a.sf), "r"(b.sf), "r"(c.sf));
400   #endif
401
402   return r;
403 }
404
405 inline u32 __byte_perm_S (const u32 a, const u32 b, const u32 c)
406 {
407   u32 r;
408
409   asm ("prmt.b32 %0, %1, %2, %3;" : "=r"(r) : "r"(a), "r"(b), "r"(c));
410
411   return r;
412 }
413
414 inline u32x __bfe (const u32x a, const u32x b, const u32x c)
415 {
416   u32x r;
417
418   #if VECT_SIZE == 1
419   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r)    : "r"(a),    "r"(b),    "r"(c));
420   #endif
421
422   #if VECT_SIZE >= 2
423   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s0) : "r"(a.s0), "r"(b.s0), "r"(c.s0));
424   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s1) : "r"(a.s1), "r"(b.s1), "r"(c.s1));
425   #endif
426
427   #if VECT_SIZE >= 4
428   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s2) : "r"(a.s2), "r"(b.s2), "r"(c.s2));
429   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s3) : "r"(a.s3), "r"(b.s3), "r"(c.s3));
430   #endif
431
432   #if VECT_SIZE >= 8
433   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s4) : "r"(a.s4), "r"(b.s4), "r"(c.s4));
434   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s5) : "r"(a.s5), "r"(b.s5), "r"(c.s5));
435   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s6) : "r"(a.s6), "r"(b.s6), "r"(c.s6));
436   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s7) : "r"(a.s7), "r"(b.s7), "r"(c.s7));
437   #endif
438
439   #if VECT_SIZE >= 16
440   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s8) : "r"(a.s8), "r"(b.s8), "r"(c.s8));
441   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.s9) : "r"(a.s9), "r"(b.s9), "r"(c.s9));
442   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.sa) : "r"(a.sa), "r"(b.sa), "r"(c.sa));
443   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.sb) : "r"(a.sb), "r"(b.sb), "r"(c.sb));
444   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.sc) : "r"(a.sc), "r"(b.sc), "r"(c.sc));
445   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.sd) : "r"(a.sd), "r"(b.sd), "r"(c.sd));
446   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.se) : "r"(a.se), "r"(b.se), "r"(c.se));
447   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r.sf) : "r"(a.sf), "r"(b.sf), "r"(c.sf));
448   #endif
449
450   return r;
451 }
452
453 inline u32 __bfe_S (const u32 a, const u32 b, const u32 c)
454 {
455   u32 r;
456
457   asm ("bfe.u32 %0, %1, %2, %3;" : "=r"(r) : "r"(a), "r"(b), "r"(c));
458
459   return r;
460 }
461
462 inline u32x amd_bytealign (const u32x a, const u32x b, const u32x c)
463 {
464   u32x r;
465
466   #if CUDA_ARCH >= 350
467
468   #if VECT_SIZE == 1
469   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r)    : "r"(b),    "r"(a),    "r"((c & 3) * 8));
470   #endif
471
472   #if VECT_SIZE >= 2
473   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s0) : "r"(b.s0), "r"(a.s0), "r"((c.s0 & 3) * 8));
474   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s1) : "r"(b.s1), "r"(a.s1), "r"((c.s1 & 3) * 8));
475   #endif
476
477   #if VECT_SIZE >= 4
478   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s2) : "r"(b.s2), "r"(a.s2), "r"((c.s2 & 3) * 8));
479   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s3) : "r"(b.s3), "r"(a.s3), "r"((c.s3 & 3) * 8));
480   #endif
481
482   #if VECT_SIZE >= 8
483   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s4) : "r"(b.s4), "r"(a.s4), "r"((c.s4 & 3) * 8));
484   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s5) : "r"(b.s5), "r"(a.s5), "r"((c.s5 & 3) * 8));
485   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s6) : "r"(b.s6), "r"(a.s6), "r"((c.s6 & 3) * 8));
486   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s7) : "r"(b.s7), "r"(a.s7), "r"((c.s7 & 3) * 8));
487   #endif
488
489   #if VECT_SIZE >= 16
490   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s8) : "r"(b.s8), "r"(a.s8), "r"((c.s8 & 3) * 8));
491   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.s9) : "r"(b.s9), "r"(a.s9), "r"((c.s9 & 3) * 8));
492   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.sa) : "r"(b.sa), "r"(a.sa), "r"((c.sa & 3) * 8));
493   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.sb) : "r"(b.sb), "r"(a.sb), "r"((c.sb & 3) * 8));
494   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.sc) : "r"(b.sc), "r"(a.sc), "r"((c.sc & 3) * 8));
495   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.sd) : "r"(b.sd), "r"(a.sd), "r"((c.sd & 3) * 8));
496   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.se) : "r"(b.se), "r"(a.se), "r"((c.se & 3) * 8));
497   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r.sf) : "r"(b.sf), "r"(a.sf), "r"((c.sf & 3) * 8));
498   #endif
499
500   #else
501
502   r = __byte_perm (b, a, ((u32x) (0x76543210) >> ((c & 3) * 4)) & 0xffff);
503
504   #endif
505
506   return r;
507 }
508
509 inline u32 amd_bytealign_S (const u32 a, const u32 b, const u32 c)
510 {
511   u32 r;
512
513   #if CUDA_ARCH >= 350
514
515   asm ("shf.r.wrap.b32 %0, %1, %2, %3;" : "=r"(r) : "r"(b), "r"(a), "r"((c & 3) * 8));
516
517   #else
518
519   r = __byte_perm_S (b, a, (0x76543210 >> ((c & 3) * 4)) & 0xffff);
520
521   #endif
522
523   return r;
524 }
525 #endif
526
527 #ifdef IS_GENERIC
528 inline u32 swap32_S (const u32 v)
529 {
530   return (as_uint (as_uchar4 (v).s3210));
531 }
532
533 inline u64 swap64_S (const u64 v)
534 {
535   return (as_ulong (as_uchar8 (v).s76543210));
536 }
537
538 inline u32 rotr32_S (const u32 a, const u32 n)
539 {
540   return rotate (a, 32 - n);
541 }
542
543 inline u32 rotl32_S (const u32 a, const u32 n)
544 {
545   return rotate (a, n);
546 }
547
548 inline u64 rotr64_S (const u64 a, const u32 n)
549 {
550   return rotate (a, (u64) 64 - n);
551 }
552
553 inline u64 rotl64_S (const u64 a, const u32 n)
554 {
555   return rotate (a, (u64) n);
556 }
557
558 inline u32x swap32 (const u32x v)
559 {
560   return ((v >> 24) & 0x000000ff)
561        | ((v >>  8) & 0x0000ff00)
562        | ((v <<  8) & 0x00ff0000)
563        | ((v << 24) & 0xff000000);
564 }
565
566 inline u64x swap64 (const u64x v)
567 {
568   return ((v >> 56) & 0x00000000000000ff)
569        | ((v >> 40) & 0x000000000000ff00)
570        | ((v >> 24) & 0x0000000000ff0000)
571        | ((v >>  8) & 0x00000000ff000000)
572        | ((v <<  8) & 0x000000ff00000000)
573        | ((v << 24) & 0x0000ff0000000000)
574        | ((v << 40) & 0x00ff000000000000)
575        | ((v << 56) & 0xff00000000000000);
576 }
577
578 inline u32x rotr32 (const u32x a, const u32 n)
579 {
580   return rotate (a, 32 - n);
581 }
582
583 inline u32x rotl32 (const u32x a, const u32 n)
584 {
585   return rotate (a, n);
586 }
587
588 inline u64x rotr64 (const u64x a, const u32 n)
589 {
590   return rotate (a, (u64) 64 - n);
591 }
592
593 inline u64x rotl64 (const u64x a, const u32 n)
594 {
595   return rotate (a, (u64) n);
596 }
597
598 inline u32x __bfe (const u32x a, const u32x b, const u32x c)
599 {
600   #define BIT(x)      ((u32x) (1u) << (x))
601   #define BIT_MASK(x) (BIT (x) - 1)
602   #define BFE(x,y,z)  (((x) >> (y)) & BIT_MASK (z))
603
604   return BFE (a, b, c);
605
606   #undef BIT
607   #undef BIT_MASK
608   #undef BFE
609 }
610
611 inline u32 __bfe_S (const u32 a, const u32 b, const u32 c)
612 {
613   #define BIT(x)      (1u << (x))
614   #define BIT_MASK(x) (BIT (x) - 1)
615   #define BFE(x,y,z)  (((x) >> (y)) & BIT_MASK (z))
616
617   return BFE (a, b, c);
618
619   #undef BIT
620   #undef BIT_MASK
621   #undef BFE
622 }
623
624 inline u32x amd_bytealign (const u32x a, const u32x b, const u32 c)
625 {
626   #if VECT_SIZE == 1
627   const u64x tmp = ((((u64x) (a)) << 32) | ((u64x) (b))) >> ((c & 3) * 8);
628
629   return (u32x) (tmp);
630   #endif
631
632   #if VECT_SIZE == 2
633   const u64x tmp = ((((u64x) (a.s0, a.s1)) << 32) | ((u64x) (b.s0, b.s1))) >> ((c & 3) * 8);
634
635   return (u32x) (tmp.s0, tmp.s1);
636   #endif
637
638   #if VECT_SIZE == 4
639   const u64x tmp = ((((u64x) (a.s0, a.s1, a.s2, a.s3)) << 32) | ((u64x) (b.s0, b.s1, b.s2, b.s3))) >> ((c & 3) * 8);
640
641   return (u32x) (tmp.s0, tmp.s1, tmp.s2, tmp.s3);
642   #endif
643
644   #if VECT_SIZE == 8
645   const u64x tmp = ((((u64x) (a.s0, a.s1, a.s2, a.s3, a.s4, a.s5, a.s6, a.s7)) << 32) | ((u64x) (b.s0, b.s1, b.s2, b.s3, b.s4, b.s5, b.s6, b.s7))) >> ((c & 3) * 8);
646
647   return (u32x) (tmp.s0, tmp.s1, tmp.s2, tmp.s3, tmp.s4, tmp.s5, tmp.s6, tmp.s7);
648   #endif
649
650   #if VECT_SIZE == 16
651   const u64x tmp = ((((u64x) (a.s0, a.s1, a.s2, a.s3, a.s4, a.s5, a.s6, a.s7, a.s8, a.s9, a.sa, a.sb, a.sc, a.sd, a.se, a.sf)) << 32) | ((u64x) (b.s0, b.s1, b.s2, b.s3, b.s4, b.s5, b.s6, b.s7, b.s8, b.s9, b.sa, b.sb, b.sc, b.sd, b.se, b.sf))) >> ((c & 3) * 8);
652
653   return (u32x) (tmp.s0, tmp.s1, tmp.s2, tmp.s3, tmp.s4, tmp.s5, tmp.s6, tmp.s7, tmp.s8, tmp.s9, tmp.sa, tmp.sb, tmp.sc, tmp.sd, tmp.se, tmp.sf);
654   #endif
655 }
656
657 inline u32 amd_bytealign_S (const u32 a, const u32 b, const u32 c)
658 {
659   const u64 tmp = ((((u64) a) << 32) | ((u64) b)) >> ((c & 3) * 8);
660
661   return (u32) (tmp);
662 }
663
664 #endif
665
666 typedef struct
667 {
668   #if   defined _DES_
669   u32  digest_buf[4];
670   #elif defined _MD4_
671   u32  digest_buf[4];
672   #elif defined _MD5_
673   u32  digest_buf[4];
674   #elif defined _MD5H_
675   u32  digest_buf[4];
676   #elif defined _SHA1_
677   u32  digest_buf[5];
678   #elif defined _BCRYPT_
679   u32  digest_buf[6];
680   #elif defined _SHA256_
681   u32  digest_buf[8];
682   #elif defined _SHA384_
683   u32  digest_buf[16];
684   #elif defined _SHA512_
685   u32  digest_buf[16];
686   #elif defined _KECCAK_
687   u32  digest_buf[50];
688   #elif defined _RIPEMD160_
689   u32  digest_buf[5];
690   #elif defined _WHIRLPOOL_
691   u32  digest_buf[16];
692   #elif defined _GOST_
693   u32  digest_buf[8];
694   #elif defined _GOST2012_256_
695   u32  digest_buf[8];
696   #elif defined _GOST2012_512_
697   u32  digest_buf[16];
698   #elif defined _SAPB_
699   u32  digest_buf[4];
700   #elif defined _SAPG_
701   u32  digest_buf[5];
702   #elif defined _MYSQL323_
703   u32  digest_buf[4];
704   #elif defined _LOTUS5_
705   u32  digest_buf[4];
706   #elif defined _LOTUS6_
707   u32  digest_buf[4];
708   #elif defined _SCRYPT_
709   u32  digest_buf[8];
710   #elif defined _LOTUS8_
711   u32  digest_buf[4];
712   #elif defined _OFFICE2007_
713   u32  digest_buf[4];
714   #elif defined _OFFICE2010_
715   u32  digest_buf[4];
716   #elif defined _OFFICE2013_
717   u32  digest_buf[4];
718   #elif defined _OLDOFFICE01_
719   u32  digest_buf[4];
720   #elif defined _OLDOFFICE34_
721   u32  digest_buf[4];
722   #elif defined _SIPHASH_
723   u32  digest_buf[4];
724   #elif defined _PBKDF2_MD5_
725   u32  digest_buf[32];
726   #elif defined _PBKDF2_SHA1_
727   u32  digest_buf[32];
728   #elif defined _PBKDF2_SHA256_
729   u32  digest_buf[32];
730   #elif defined _PBKDF2_SHA512_
731   u32  digest_buf[32];
732   #elif defined _PDF17L8_
733   u32  digest_buf[8];
734   #elif defined _CRC32_
735   u32  digest_buf[4];
736   #elif defined _SEVEN_ZIP_
737   u32  digest_buf[4];
738   #elif defined _ANDROIDFDE_
739   u32  digest_buf[4];
740   #elif defined _DCC2_
741   u32  digest_buf[4];
742   #elif defined _WPA_
743   u32  digest_buf[4];
744   #elif defined _MD5_SHA1_
745   u32  digest_buf[4];
746   #elif defined _SHA1_MD5_
747   u32  digest_buf[5];
748   #elif defined _NETNTLMV2_
749   u32  digest_buf[4];
750   #elif defined _KRB5PA_
751   u32  digest_buf[4];
752   #elif defined _CLOUDKEY_
753   u32  digest_buf[8];
754   #elif defined _SCRYPT_
755   u32  digest_buf[4];
756   #elif defined _PSAFE2_
757   u32  digest_buf[5];
758   #elif defined _LOTUS8_
759   u32  digest_buf[4];
760   #elif defined _RAR3_
761   u32  digest_buf[4];
762   #elif defined _SHA256_SHA1_
763   u32  digest_buf[8];
764   #elif defined _MS_DRSR_
765   u32  digest_buf[8];
766   #elif defined _ANDROIDFDE_SAMSUNG_
767   u32  digest_buf[8];
768   #elif defined _RAR5_
769   u32  digest_buf[4];
770   #elif defined _KRB5TGS_
771   u32  digest_buf[4];
772   #elif defined _AXCRYPT_
773   u32  digest_buf[4];
774   #elif defined _KEEPASS_
775   u32  digest_buf[4];
776   #elif defined _ZIP2_
777   u32  digest_buf[4];
778   #elif defined _AXCRYPT_
779   u32  digest_buf[4];
780   #endif
781
782 } digest_t;
783
784 typedef struct
785 {
786   u32 salt_buf[16];
787   u32 salt_buf_pc[8];
788
789   u32 salt_len;
790   u32 salt_iter;
791   u32 salt_sign[2];
792
793   u32 keccak_mdlen;
794   u32 truecrypt_mdlen;
795
796   u32 digests_cnt;
797   u32 digests_done;
798
799   u32 digests_offset;
800
801   u32 scrypt_N;
802   u32 scrypt_r;
803   u32 scrypt_p;
804   u32 scrypt_tmto;
805   u32 scrypt_phy;
806
807 } salt_t;
808
809 typedef struct
810 {
811   int V;
812   int R;
813   int P;
814
815   int enc_md;
816
817   u32 id_buf[8];
818   u32 u_buf[32];
819   u32 o_buf[32];
820
821   int id_len;
822   int o_len;
823   int u_len;
824
825   u32 rc4key[2];
826   u32 rc4data[2];
827
828 } pdf_t;
829
830 typedef struct
831 {
832   u32 pke[25];
833   u32 eapol[64];
834   int eapol_size;
835   int keyver;
836   u8  orig_mac1[6];
837   u8  orig_mac2[6];
838   u8  orig_nonce1[32];
839   u8  orig_nonce2[32];
840
841 } wpa_t;
842
843 typedef struct
844 {
845   u32 cry_master_buf[64];
846   u32 ckey_buf[64];
847   u32 public_key_buf[64];
848
849   u32 cry_master_len;
850   u32 ckey_len;
851   u32 public_key_len;
852
853 } bitcoin_wallet_t;
854
855 typedef struct
856 {
857   u32 salt_buf[30];
858   u32 salt_len;
859
860   u32 esalt_buf[38];
861   u32 esalt_len;
862
863 } sip_t;
864
865 typedef struct
866 {
867   u32 data[384];
868
869 } androidfde_t;
870
871 typedef struct
872 {
873   u32 nr_buf[16];
874   u32 nr_len;
875
876   u32 msg_buf[128];
877   u32 msg_len;
878
879 } ikepsk_t;
880
881 typedef struct
882 {
883   u32 user_len;
884   u32 domain_len;
885   u32 srvchall_len;
886   u32 clichall_len;
887
888   u32 userdomain_buf[64];
889   u32 chall_buf[256];
890
891 } netntlm_t;
892
893 typedef struct
894 {
895   u32 user[16];
896   u32 realm[16];
897   u32 salt[32];
898   u32 timestamp[16];
899   u32 checksum[4];
900
901 } krb5pa_t;
902
903 typedef struct
904 {
905   u32 account_info[512];
906   u32 checksum[4];
907   u32 edata2[2560];
908   u32 edata2_len;
909
910 } krb5tgs_t;
911
912 typedef struct
913 {
914   u32 salt_buf[16];
915   u32 data_buf[112];
916   u32 keyfile_buf[16];
917   u32 signature;
918
919 } tc_t;
920
921 typedef struct
922 {
923   u32 salt_buf[16];
924
925 } pbkdf2_md5_t;
926
927 typedef struct
928 {
929   u32 salt_buf[16];
930
931 } pbkdf2_sha1_t;
932
933 typedef struct
934 {
935   u32 salt_buf[16];
936
937 } pbkdf2_sha256_t;
938
939 typedef struct
940 {
941   u32 salt_buf[32];
942
943 } pbkdf2_sha512_t;
944
945 typedef struct
946 {
947   u32 salt_buf[128];
948   u32 salt_len;
949
950 } rakp_t;
951
952 typedef struct
953 {
954   u32 data_len;
955   u32 data_buf[512];
956
957 } cloudkey_t;
958
959 typedef struct
960 {
961   u32 encryptedVerifier[4];
962   u32 encryptedVerifierHash[5];
963
964   u32 keySize;
965
966 } office2007_t;
967
968 typedef struct
969 {
970   u32 encryptedVerifier[4];
971   u32 encryptedVerifierHash[8];
972
973 } office2010_t;
974
975 typedef struct
976 {
977   u32 encryptedVerifier[4];
978   u32 encryptedVerifierHash[8];
979
980 } office2013_t;
981
982 typedef struct
983 {
984   u32 version;
985   u32 encryptedVerifier[4];
986   u32 encryptedVerifierHash[4];
987   u32 rc4key[2];
988
989 } oldoffice01_t;
990
991 typedef struct
992 {
993   u32 version;
994   u32 encryptedVerifier[4];
995   u32 encryptedVerifierHash[5];
996   u32 rc4key[2];
997
998 } oldoffice34_t;
999
1000 typedef struct
1001 {
1002   u32 salt_buf[128];
1003   u32 salt_len;
1004
1005   u32 pc_digest[5];
1006   u32 pc_offset;
1007
1008 } pstoken_t;
1009
1010 typedef struct
1011 {
1012   u32 type;
1013   u32 mode;
1014   u32 magic;
1015   u32 salt_len;
1016   u32 salt_buf[4];
1017   u32 verify_bytes;
1018   u32 compress_length;
1019   u32 data_len;
1020   u32 data_buf[2048];
1021   u32 auth_len;
1022   u32 auth_buf[4];
1023
1024 } zip2_t;
1025
1026 typedef struct
1027 {
1028   u32 salt_buf[32];
1029
1030 } win8phone_t;
1031
1032 typedef struct
1033 {
1034   u32 version;
1035   u32 algorithm;
1036
1037   /* key-file handling */
1038   u32 keyfile_len;
1039   u32 keyfile[8];
1040
1041   u32 final_random_seed[8];
1042   u32 transf_random_seed[8];
1043   u32 enc_iv[4];
1044   u32 contents_hash[8];
1045
1046   /* specific to version 1 */
1047   u32 contents_len;
1048   u32 contents[75000];
1049
1050   /* specific to version 2 */
1051   u32 expected_bytes[8];
1052
1053 } keepass_t;
1054
1055 typedef struct
1056 {
1057   u32 digest[4];
1058   u32 out[4];
1059
1060 } pdf14_tmp_t;
1061
1062 typedef struct
1063 {
1064   union
1065   {
1066     u32 dgst32[16];
1067     u64 dgst64[8];
1068   };
1069
1070   u32 dgst_len;
1071   u32 W_len;
1072
1073 } pdf17l8_tmp_t;
1074
1075 typedef struct
1076 {
1077   u32 digest_buf[4];
1078
1079 } phpass_tmp_t;
1080
1081 typedef struct
1082 {
1083   u32 digest_buf[4];
1084
1085 } md5crypt_tmp_t;
1086
1087 typedef struct
1088 {
1089   u32 alt_result[8];
1090
1091   u32 p_bytes[4];
1092   u32 s_bytes[4];
1093
1094 } sha256crypt_tmp_t;
1095
1096 typedef struct
1097 {
1098   u64 l_alt_result[8];
1099
1100   u64 l_p_bytes[2];
1101   u64 l_s_bytes[2];
1102
1103 } sha512crypt_tmp_t;
1104
1105 typedef struct
1106 {
1107   u32 ipad[5];
1108   u32 opad[5];
1109
1110   u32 dgst[10];
1111   u32 out[10];
1112
1113 } wpa_tmp_t;
1114
1115 typedef struct
1116 {
1117   u64 dgst[8];
1118
1119 } bitcoin_wallet_tmp_t;
1120
1121 typedef struct
1122 {
1123   u32 ipad[5];
1124   u32 opad[5];
1125
1126   u32 dgst[5];
1127   u32 out[4];
1128
1129 } dcc2_tmp_t;
1130
1131 typedef struct
1132 {
1133   u32 E[18];
1134
1135   u32 P[18];
1136
1137   u32 S0[256];
1138   u32 S1[256];
1139   u32 S2[256];
1140   u32 S3[256];
1141
1142 } bcrypt_tmp_t;
1143
1144 typedef struct
1145 {
1146   u32 digest[2];
1147
1148   u32 P[18];
1149
1150   u32 S0[256];
1151   u32 S1[256];
1152   u32 S2[256];
1153   u32 S3[256];
1154
1155 } pwsafe2_tmp_t;
1156
1157 typedef struct
1158 {
1159   u32 digest_buf[8];
1160
1161 } pwsafe3_tmp_t;
1162
1163 typedef struct
1164 {
1165   u32 digest_buf[5];
1166
1167 } androidpin_tmp_t;
1168
1169 typedef struct
1170 {
1171   u32 ipad[5];
1172   u32 opad[5];
1173
1174   u32 dgst[10];
1175   u32 out[10];
1176
1177 } androidfde_tmp_t;
1178
1179 typedef struct
1180 {
1181   u32 ipad[16];
1182   u32 opad[16];
1183
1184   u32 dgst[64];
1185   u32 out[64];
1186
1187 } tc_tmp_t;
1188
1189 typedef struct
1190 {
1191   u64 ipad[8];
1192   u64 opad[8];
1193
1194   u64 dgst[32];
1195   u64 out[32];
1196
1197 } tc64_tmp_t;
1198
1199 typedef struct
1200 {
1201   u32 ipad[4];
1202   u32 opad[4];
1203
1204   u32 dgst[32];
1205   u32 out[32];
1206
1207 } pbkdf2_md5_tmp_t;
1208
1209 typedef struct
1210 {
1211   u32 ipad[5];
1212   u32 opad[5];
1213
1214   u32 dgst[32];
1215   u32 out[32];
1216
1217 } pbkdf2_sha1_tmp_t;
1218
1219 typedef struct
1220 {
1221   u32 ipad[8];
1222   u32 opad[8];
1223
1224   u32 dgst[32];
1225   u32 out[32];
1226
1227 } pbkdf2_sha256_tmp_t;
1228
1229 typedef struct
1230 {
1231   u64 ipad[8];
1232   u64 opad[8];
1233
1234   u64 dgst[16];
1235   u64 out[16];
1236
1237 } pbkdf2_sha512_tmp_t;
1238
1239 typedef struct
1240 {
1241   u64 out[8];
1242
1243 } ecryptfs_tmp_t;
1244
1245 typedef struct
1246 {
1247   u64 ipad[8];
1248   u64 opad[8];
1249
1250   u64 dgst[16];
1251   u64 out[16];
1252
1253 } oraclet_tmp_t;
1254
1255 typedef struct
1256 {
1257   u32 ipad[5];
1258   u32 opad[5];
1259
1260   u32 dgst[5];
1261   u32 out[5];
1262
1263 } agilekey_tmp_t;
1264
1265 typedef struct
1266 {
1267   u32 ipad[5];
1268   u32 opad[5];
1269
1270   u32 dgst1[5];
1271   u32 out1[5];
1272
1273   u32 dgst2[5];
1274   u32 out2[5];
1275
1276 } mywallet_tmp_t;
1277
1278 typedef struct
1279 {
1280   u32 ipad[5];
1281   u32 opad[5];
1282
1283   u32 dgst[5];
1284   u32 out[5];
1285
1286 } sha1aix_tmp_t;
1287
1288 typedef struct
1289 {
1290   u32 ipad[8];
1291   u32 opad[8];
1292
1293   u32 dgst[8];
1294   u32 out[8];
1295
1296 } sha256aix_tmp_t;
1297
1298 typedef struct
1299 {
1300   u64 ipad[8];
1301   u64 opad[8];
1302
1303   u64 dgst[8];
1304   u64 out[8];
1305
1306 } sha512aix_tmp_t;
1307
1308 typedef struct
1309 {
1310   u32 ipad[8];
1311   u32 opad[8];
1312
1313   u32 dgst[8];
1314   u32 out[8];
1315
1316 } lastpass_tmp_t;
1317
1318 typedef struct
1319 {
1320   u64 digest_buf[8];
1321
1322 } drupal7_tmp_t;
1323
1324 typedef struct
1325 {
1326   u32 ipad[5];
1327   u32 opad[5];
1328
1329   u32 dgst[5];
1330   u32 out[5];
1331
1332 } lotus8_tmp_t;
1333
1334 typedef struct
1335 {
1336   u32 out[5];
1337
1338 } office2007_tmp_t;
1339
1340 typedef struct
1341 {
1342   u32 out[5];
1343
1344 } office2010_tmp_t;
1345
1346 typedef struct
1347 {
1348   u64 out[8];
1349
1350 } office2013_tmp_t;
1351
1352 typedef struct
1353 {
1354   u32 digest_buf[5];
1355
1356 } saph_sha1_tmp_t;
1357
1358 typedef struct
1359 {
1360   u32 block[16];
1361
1362   u32 dgst[8];
1363
1364   u32 block_len;
1365   u32 final_len;
1366
1367 } seven_zip_tmp_t;
1368
1369 typedef struct
1370 {
1371   u32 KEK[4];
1372   u32 lsb[4];
1373   u32 cipher[4];
1374
1375 } axcrypt_tmp_t;
1376
1377 typedef struct
1378 {
1379   u32 tmp_digest[8];
1380
1381 } keepass_tmp_t;
1382
1383 typedef struct
1384 {
1385   u32 Kc[16];
1386   u32 Kd[16];
1387
1388   u32 iv[2];
1389
1390 } bsdicrypt_tmp_t;
1391
1392 typedef struct
1393 {
1394   u32 dgst[17][5];
1395
1396 } rar3_tmp_t;
1397
1398 typedef struct
1399 {
1400   u32 user[16];
1401
1402 } cram_md5_t;
1403
1404 typedef struct
1405 {
1406   u32 iv_buf[4];
1407   u32 iv_len;
1408
1409   u32 salt_buf[4];
1410   u32 salt_len;
1411
1412   u32 crc;
1413
1414   u32 data_buf[96];
1415   u32 data_len;
1416
1417   u32 unpack_size;
1418
1419 } seven_zip_t;
1420
1421 typedef struct
1422 {
1423   u32 key;
1424   u64 val;
1425
1426 } hcstat_table_t;
1427
1428 typedef struct
1429 {
1430   u32 cs_buf[0x100];
1431   u32 cs_len;
1432
1433 } cs_t;
1434
1435 typedef struct
1436 {
1437   u32 cmds[0x100];
1438
1439 } kernel_rule_t;
1440
1441 typedef struct
1442 {
1443   u32 salt_pos;
1444   u32 digest_pos;
1445   u32 hash_pos;
1446   u32 gidvid;
1447   u32 il_pos;
1448
1449 } plain_t;
1450
1451 typedef struct
1452 {
1453   u32 i[16];
1454
1455   u32 pw_len;
1456
1457   u32 alignment_placeholder_1;
1458   u32 alignment_placeholder_2;
1459   u32 alignment_placeholder_3;
1460
1461 } pw_t;
1462
1463 typedef struct
1464 {
1465   u32 i;
1466
1467 } bf_t;
1468
1469 typedef struct
1470 {
1471   u32 i[8];
1472
1473   u32 pw_len;
1474
1475 } comb_t;
1476
1477 typedef struct
1478 {
1479   u32 b[32];
1480
1481 } bs_word_t;
1482
1483 typedef struct
1484 {
1485   uint4 P[64];
1486
1487 } scrypt_tmp_t;