Added new hash mode -m 13000 = RAR5
[hashcat.git] / OpenCL / types_ocl.c
index f584ad3..5367a09 100644 (file)
@@ -8,6 +8,36 @@ typedef ushort u16;
 typedef uint   u32;
 typedef ulong  u64;
 
+#define allx(r) r
+
+/*
+static u32 allx (const u32 r)
+{
+  return r;
+}
+*/
+
+static inline u32 l32_from_64 (u64 a)
+{
+  const u32 r = (uint) (a);
+
+  return r;
+}
+
+static inline u32 h32_from_64 (u64 a)
+{
+  a >>= 32;
+
+  const u32 r = (uint) (a);
+
+  return r;
+}
+
+static inline u64 hl32_to_64 (const u32 a, const u32 b)
+{
+  return as_ulong ((uint2) (b, a));
+}
+
 #ifdef IS_AMD
 static inline u32 swap32 (const u32 v)
 {
@@ -18,7 +48,6 @@ static inline u64 swap64 (const u64 v)
 {
   return (as_ulong (as_uchar8 (v).s76543210));
 }
-
 #endif
 
 #ifdef IS_NV
@@ -50,7 +79,18 @@ static inline u64 swap64 (const u64 v)
 
   return r;
 }
+#endif
+
+#ifdef IS_GENERIC
+static inline u32 swap32 (const u32 v)
+{
+  return (as_uint (as_uchar4 (v).s3210));
+}
 
+static inline u64 swap64 (const u64 v)
+{
+  return (as_ulong (as_uchar8 (v).s76543210));
+}
 #endif
 
 #ifdef IS_AMD
@@ -78,9 +118,7 @@ static inline u32 __bfe (const u32 a, const u32 b, const u32 c)
 
   return r;
 }
-
 #if CUDA_ARCH >= 350
-
 static inline u32 amd_bytealign (const u32 a, const u32 b, const u32 c)
 {
   u32 r;
@@ -89,113 +127,31 @@ static inline u32 amd_bytealign (const u32 a, const u32 b, const u32 c)
 
   return r;
 }
-
 #else
-
 static inline u32 amd_bytealign (const u32 a, const u32 b, const u32 c)
 {
   return __byte_perm (b, a, (0x76543210 >> ((c & 3) * 4)) & 0xffff);
 }
-
 #endif
-
-static inline u32 lut3_2d (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0x2d;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_39 (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0x39;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_59 (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0x59;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_96 (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0x96;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_e4 (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0xe4;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_e8 (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0xe8;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
-static inline u32 lut3_ca (const u32 a, const u32 b, const u32 c)
-{
-  u32 r;
-
-  asm ("lop3.b32 %0, %1, %2, %3, 0xca;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
-
-  return r;
-}
-
 #endif
 
-#define allx(r) r
-
-/*
-static u32 allx (const u32 r)
-{
-  return r;
-}
-*/
-
-static inline u32 l32_from_64 (u64 a)
-{
-  const u32 r = (uint) (a);
-
-  return r;
-}
-
-static inline u32 h32_from_64 (u64 a)
+#ifdef IS_GENERIC
+static inline u32 __bfe (const u32 a, const u32 b, const u32 c)
 {
-  a >>= 32;
+  #define BIT(x)      (1 << (x))
+  #define BIT_MASK(x) (BIT (x) - 1)
+  #define BFE(x,y,z)  (((x) >> (y)) & BIT_MASK (z))
 
-  const u32 r = (uint) (a);
-
-  return r;
+  return BFE (a, b, c);
 }
 
-static inline u64 hl32_to_64 (const u32 a, const u32 b)
+static inline u32 amd_bytealign (const u32 a, const u32 b, const u32 c)
 {
-  return as_ulong ((uint2) (b, a));
+  return (u32) (((((u64) a) << 32) | (u64) b) >> ((c & 3) * 8));
 }
+#endif
 
 #ifdef IS_AMD
-
 static inline u32 rotr32 (const u32 a, const u32 n)
 {
   return rotate (a, 32 - n);
@@ -224,13 +180,10 @@ static inline u64 rotl64 (const u64 a, const u32 n)
 {
   return rotr64 (a, 64 - n);
 }
-
 #endif
 
 #ifdef IS_NV
-
 #if CUDA_ARCH >= 350
-
 /*
 this version reduced the number of registers but for some unknown reason the whole kernel become slower.. instruction cache monster?
 static inline u32 rotr32 (const u32 a, const u32 n)
@@ -323,9 +276,7 @@ static inline u64 rotl64 (const u64 a, const u32 n)
 {
   return rotr64 (a, 64 - n);
 }
-
 #else
-
 static inline u32 rotr32 (const u32 a, const u32 n)
 {
   return rotate (a, 32 - n);
@@ -336,16 +287,104 @@ static inline u32 rotl32 (const u32 a, const u32 n)
   return rotate (a, n);
 }
 
-static inline u64 rotr64 (const u64 a, const u64 n)
+static inline u64 rotr64 (const u64 a, const u32 n)
 {
-  return rotate (a, 64 - n);
+  return rotate (a, (u64) 64 - n);
 }
 
-static inline u64 rotl64 (const u64 a, const u64 n)
+static inline u64 rotl64 (const u64 a, const u32 n)
+{
+  return rotate (a, (u64) n);
+}
+#endif
+#endif
+
+#ifdef IS_GENERIC
+static inline u32 rotr32 (const u32 a, const u32 n)
+{
+  return rotate (a, 32 - n);
+}
+
+static inline u32 rotl32 (const u32 a, const u32 n)
 {
   return rotate (a, n);
 }
 
+static inline u64 rotr64 (const u64 a, const u32 n)
+{
+  return rotate (a, (u64) 64 - n);
+}
+
+static inline u64 rotl64 (const u64 a, const u32 n)
+{
+  return rotate (a, (u64) n);
+}
+#endif
+
+#ifdef IS_NV
+#if CUDA_ARCH >= 500
+static inline u32 lut3_2d (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0x2d;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_39 (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0x39;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_59 (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0x59;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_96 (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0x96;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_e4 (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0xe4;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_e8 (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0xe8;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
+
+static inline u32 lut3_ca (const u32 a, const u32 b, const u32 c)
+{
+  u32 r;
+
+  asm ("lop3.b32 %0, %1, %2, %3, 0xca;" : "=r" (r) : "r" (a), "r" (b), "r" (c));
+
+  return r;
+}
 #endif
 #endif
 
@@ -449,6 +488,10 @@ typedef struct
   u32  digest_buf[8];
   #elif defined _MS_DRSR_
   u32  digest_buf[8];
+  #elif defined _ANDROIDFDE_SAMSUNG_
+  u32  digest_buf[8];
+  #elif defined _RAR5_
+  u32  digest_buf[4];
   #endif
 
 } digest_t;
@@ -1009,7 +1052,7 @@ typedef struct
 
 typedef struct
 {
-  u32  key;
+  u32 key;
   u64 val;
 
 } hcstat_table_t;
@@ -1023,18 +1066,9 @@ typedef struct
 
 typedef struct
 {
-  u32 cmds[15];
+  u32 cmds[0x100];
 
-} gpu_rule_t;
-
-/*
-typedef struct
-{
-  u32 plain_buf[16];
-  u32 plailen;
-
-} plain_t;
-*/
+} kernel_rule_t;
 
 typedef struct
 {