Fix strerror_r on win32
authorMarko Kreen <markokr@gmail.com>
Wed, 9 Sep 2009 18:44:00 +0000 (21:44 +0300)
committerMarko Kreen <markokr@gmail.com>
Wed, 9 Sep 2009 18:44:00 +0000 (21:44 +0300)
usual/logging.c
usual/safeio.c
usual/string.h

index 1983f2622398249b6956d3cd071fc870c2634199..7ab102db9ce94eed788b16c235a5134fa94ac603 100644 (file)
@@ -20,8 +20,8 @@
 
 #include <stdio.h>
 #include <stdarg.h>
-#include <string.h>
 
+#include <usual/string.h>
 #include <usual/time.h>
 
 #ifdef HAVE_SYSLOG_H
index 18e7a0eacadf5286974203888b4c92e146134c35..32c4649b97210ecd73bc404e9db484668a998eb1 100644 (file)
@@ -25,6 +25,7 @@
 
 #include <usual/socket.h>
 #include <usual/logging.h>
+#include <usual/string.h>
 
 int safe_read(int fd, void *buf, int len)
 {
index 356679bcce2b67be756a79aca944f552e6bfd77c..6488523d6902112c4c3a03efd25141866ed148da 100644 (file)
@@ -90,7 +90,7 @@ const char *basename(const char *path);
 const char *win32_strerror(int e);
 #define strerror(x) win32_strerror(x)
 const char *win32_strerror_r(int e, char *dst, size_t dstlen);
-#define strerror_r(x) win32_strerror_r(x)
+#define strerror_r(a,b,c) win32_strerror_r(a,b,c)
 #else
 /* otherwise convert native strerror_r() to GNU signature */
 const char *wrap_strerror_r(int e, char *dst, size_t dstlen);