]> git.lizzy.rs Git - nothing.git/blobdiff - test/main.c
Add TODO(#1022)
[nothing.git] / test / main.c
index f3362d01d111f3f44175a541a21309bbebef7e9e..37ecba29c8645c121c078381542db0185c302bc4 100644 (file)
@@ -1,59 +1,15 @@
-#include <assert.h>
-#include <stdio.h>
-#include <string.h>
-
 #include "test.h"
-#include "script/tokenizer.h"
-
-TEST(tokenizer_number_list_test)
-{
-    struct Token token = next_token("(1 2 3)");
-    ASSERT_STREQN("(", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("1", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("2", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("3", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN(")", token.begin, (size_t) (token.end - token.begin));
-
-    return 0;
-}
-
-TEST(tokenizer_string_list_test)
-{
-    struct Token token = next_token("(\"foo\" \"bar\" \"baz\")");
-    ASSERT_STREQN("(", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("\"foo\"", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("\"bar\"", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN("\"baz\"", token.begin, (size_t) (token.end - token.begin));
-
-    token = next_token(token.end);
-    ASSERT_STREQN(")", token.begin, (size_t) (token.end - token.begin));
-
-    return 0;
-}
-
-TEST_SUITE(tokenizer_suite)
-{
-    TEST_RUN(tokenizer_number_list_test);
-    TEST_RUN(tokenizer_string_list_test);
-    return 0;
-}
+#include "tokenizer_suite.h"
+#include "parser_suite.h"
+#include "interpreter_suite.h"
+#include "scope_suite.h"
 
 TEST_MAIN()
 {
     TEST_RUN(tokenizer_suite);
+    TEST_RUN(parser_suite);
+    TEST_RUN(interpreter_suite);
+    TEST_RUN(scope_suite);
+
     return 0;
 }