]> git.lizzy.rs Git - dragonfireclient.git/blob - src/emerge.cpp
GLES fixes (#11205)
[dragonfireclient.git] / src / emerge.cpp
1 /*
2 Minetest
3 Copyright (C) 2010-2013 celeron55, Perttu Ahola <celeron55@gmail.com>
4 Copyright (C) 2010-2013 kwolekr, Ryan Kwolek <kwolekr@minetest.net>
5
6 This program is free software; you can redistribute it and/or modify
7 it under the terms of the GNU Lesser General Public License as published by
8 the Free Software Foundation; either version 2.1 of the License, or
9 (at your option) any later version.
10
11 This program is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 GNU Lesser General Public License for more details.
15
16 You should have received a copy of the GNU Lesser General Public License along
17 with this program; if not, write to the Free Software Foundation, Inc.,
18 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA.
19 */
20
21
22 #include "emerge.h"
23
24 #include <iostream>
25 #include <queue>
26
27 #include "util/container.h"
28 #include "util/thread.h"
29 #include "threading/event.h"
30
31 #include "config.h"
32 #include "constants.h"
33 #include "environment.h"
34 #include "log.h"
35 #include "map.h"
36 #include "mapblock.h"
37 #include "mapgen/mg_biome.h"
38 #include "mapgen/mg_ore.h"
39 #include "mapgen/mg_decoration.h"
40 #include "mapgen/mg_schematic.h"
41 #include "nodedef.h"
42 #include "profiler.h"
43 #include "scripting_server.h"
44 #include "server.h"
45 #include "settings.h"
46 #include "voxel.h"
47
48 class EmergeThread : public Thread {
49 public:
50         bool enable_mapgen_debug_info;
51         int id;
52
53         EmergeThread(Server *server, int ethreadid);
54         ~EmergeThread() = default;
55
56         void *run();
57         void signal();
58
59         // Requires queue mutex held
60         bool pushBlock(const v3s16 &pos);
61
62         void cancelPendingItems();
63
64         static void runCompletionCallbacks(
65                 const v3s16 &pos, EmergeAction action,
66                 const EmergeCallbackList &callbacks);
67
68 private:
69         Server *m_server;
70         ServerMap *m_map;
71         EmergeManager *m_emerge;
72         Mapgen *m_mapgen;
73
74         Event m_queue_event;
75         std::queue<v3s16> m_block_queue;
76
77         bool popBlockEmerge(v3s16 *pos, BlockEmergeData *bedata);
78
79         EmergeAction getBlockOrStartGen(
80                 const v3s16 &pos, bool allow_gen, MapBlock **block, BlockMakeData *data);
81         MapBlock *finishGen(v3s16 pos, BlockMakeData *bmdata,
82                 std::map<v3s16, MapBlock *> *modified_blocks);
83
84         friend class EmergeManager;
85 };
86
87 class MapEditEventAreaIgnorer
88 {
89 public:
90         MapEditEventAreaIgnorer(VoxelArea *ignorevariable, const VoxelArea &a):
91                 m_ignorevariable(ignorevariable)
92         {
93                 if(m_ignorevariable->getVolume() == 0)
94                         *m_ignorevariable = a;
95                 else
96                         m_ignorevariable = NULL;
97         }
98
99         ~MapEditEventAreaIgnorer()
100         {
101                 if(m_ignorevariable)
102                 {
103                         assert(m_ignorevariable->getVolume() != 0);
104                         *m_ignorevariable = VoxelArea();
105                 }
106         }
107
108 private:
109         VoxelArea *m_ignorevariable;
110 };
111
112 EmergeParams::~EmergeParams()
113 {
114         infostream << "EmergeParams: destroying " << this << std::endl;
115         // Delete everything that was cloned on creation of EmergeParams
116         delete biomegen;
117         delete biomemgr;
118         delete oremgr;
119         delete decomgr;
120         delete schemmgr;
121 }
122
123 EmergeParams::EmergeParams(EmergeManager *parent, const BiomeGen *biomegen,
124         const BiomeManager *biomemgr,
125         const OreManager *oremgr, const DecorationManager *decomgr,
126         const SchematicManager *schemmgr) :
127         ndef(parent->ndef),
128         enable_mapgen_debug_info(parent->enable_mapgen_debug_info),
129         gen_notify_on(parent->gen_notify_on),
130         gen_notify_on_deco_ids(&parent->gen_notify_on_deco_ids),
131         biomemgr(biomemgr->clone()), oremgr(oremgr->clone()),
132         decomgr(decomgr->clone()), schemmgr(schemmgr->clone())
133 {
134         this->biomegen = biomegen->clone(this->biomemgr);
135 }
136
137 ////
138 //// EmergeManager
139 ////
140
141 EmergeManager::EmergeManager(Server *server)
142 {
143         this->ndef      = server->getNodeDefManager();
144         this->biomemgr  = new BiomeManager(server);
145         this->oremgr    = new OreManager(server);
146         this->decomgr   = new DecorationManager(server);
147         this->schemmgr  = new SchematicManager(server);
148
149         // initialized later
150         this->mgparams = nullptr;
151         this->biomegen = nullptr;
152
153         // Note that accesses to this variable are not synchronized.
154         // This is because the *only* thread ever starting or stopping
155         // EmergeThreads should be the ServerThread.
156
157         enable_mapgen_debug_info = g_settings->getBool("enable_mapgen_debug_info");
158
159         s16 nthreads = 1;
160         g_settings->getS16NoEx("num_emerge_threads", nthreads);
161         // If automatic, leave a proc for the main thread and one for
162         // some other misc thread
163         if (nthreads == 0)
164                 nthreads = Thread::getNumberOfProcessors() - 2;
165         if (nthreads < 1)
166                 nthreads = 1;
167
168         m_qlimit_total = g_settings->getU16("emergequeue_limit_total");
169         // FIXME: these fallback values are probably not good
170         if (!g_settings->getU16NoEx("emergequeue_limit_diskonly", m_qlimit_diskonly))
171                 m_qlimit_diskonly = nthreads * 5 + 1;
172         if (!g_settings->getU16NoEx("emergequeue_limit_generate", m_qlimit_generate))
173                 m_qlimit_generate = nthreads + 1;
174
175         // don't trust user input for something very important like this
176         if (m_qlimit_total < 1)
177                 m_qlimit_total = 1;
178         if (m_qlimit_diskonly < 1)
179                 m_qlimit_diskonly = 1;
180         if (m_qlimit_generate < 1)
181                 m_qlimit_generate = 1;
182
183         for (s16 i = 0; i < nthreads; i++)
184                 m_threads.push_back(new EmergeThread(server, i));
185
186         infostream << "EmergeManager: using " << nthreads << " threads" << std::endl;
187 }
188
189
190 EmergeManager::~EmergeManager()
191 {
192         for (u32 i = 0; i != m_threads.size(); i++) {
193                 EmergeThread *thread = m_threads[i];
194
195                 if (m_threads_active) {
196                         thread->stop();
197                         thread->signal();
198                         thread->wait();
199                 }
200
201                 delete thread;
202
203                 // Mapgen init might not be finished if there is an error during startup.
204                 if (m_mapgens.size() > i)
205                         delete m_mapgens[i];
206         }
207
208         delete biomemgr;
209         delete oremgr;
210         delete decomgr;
211         delete schemmgr;
212 }
213
214
215 BiomeManager *EmergeManager::getWritableBiomeManager()
216 {
217         FATAL_ERROR_IF(!m_mapgens.empty(),
218                 "Writable managers can only be returned before mapgen init");
219         return biomemgr;
220 }
221
222 OreManager *EmergeManager::getWritableOreManager()
223 {
224         FATAL_ERROR_IF(!m_mapgens.empty(),
225                 "Writable managers can only be returned before mapgen init");
226         return oremgr;
227 }
228
229 DecorationManager *EmergeManager::getWritableDecorationManager()
230 {
231         FATAL_ERROR_IF(!m_mapgens.empty(),
232                 "Writable managers can only be returned before mapgen init");
233         return decomgr;
234 }
235
236 SchematicManager *EmergeManager::getWritableSchematicManager()
237 {
238         FATAL_ERROR_IF(!m_mapgens.empty(),
239                 "Writable managers can only be returned before mapgen init");
240         return schemmgr;
241 }
242
243
244 void EmergeManager::initMapgens(MapgenParams *params)
245 {
246         FATAL_ERROR_IF(!m_mapgens.empty(), "Mapgen already initialised.");
247
248         mgparams = params;
249
250         v3s16 csize = v3s16(1, 1, 1) * (params->chunksize * MAP_BLOCKSIZE);
251         biomegen = biomemgr->createBiomeGen(BIOMEGEN_ORIGINAL, params->bparams, csize);
252
253         for (u32 i = 0; i != m_threads.size(); i++) {
254                 EmergeParams *p = new EmergeParams(this, biomegen,
255                         biomemgr, oremgr, decomgr, schemmgr);
256                 infostream << "EmergeManager: Created params " << p
257                         << " for thread " << i << std::endl;
258                 m_mapgens.push_back(Mapgen::createMapgen(params->mgtype, params, p));
259         }
260 }
261
262
263 Mapgen *EmergeManager::getCurrentMapgen()
264 {
265         if (!m_threads_active)
266                 return nullptr;
267
268         for (u32 i = 0; i != m_threads.size(); i++) {
269                 EmergeThread *t = m_threads[i];
270                 if (t->isRunning() && t->isCurrentThread())
271                         return t->m_mapgen;
272         }
273
274         return nullptr;
275 }
276
277
278 void EmergeManager::startThreads()
279 {
280         if (m_threads_active)
281                 return;
282
283         for (u32 i = 0; i != m_threads.size(); i++)
284                 m_threads[i]->start();
285
286         m_threads_active = true;
287 }
288
289
290 void EmergeManager::stopThreads()
291 {
292         if (!m_threads_active)
293                 return;
294
295         // Request thread stop in parallel
296         for (u32 i = 0; i != m_threads.size(); i++) {
297                 m_threads[i]->stop();
298                 m_threads[i]->signal();
299         }
300
301         // Then do the waiting for each
302         for (u32 i = 0; i != m_threads.size(); i++)
303                 m_threads[i]->wait();
304
305         m_threads_active = false;
306 }
307
308
309 bool EmergeManager::isRunning()
310 {
311         return m_threads_active;
312 }
313
314
315 bool EmergeManager::enqueueBlockEmerge(
316         session_t peer_id,
317         v3s16 blockpos,
318         bool allow_generate,
319         bool ignore_queue_limits)
320 {
321         u16 flags = 0;
322         if (allow_generate)
323                 flags |= BLOCK_EMERGE_ALLOW_GEN;
324         if (ignore_queue_limits)
325                 flags |= BLOCK_EMERGE_FORCE_QUEUE;
326
327         return enqueueBlockEmergeEx(blockpos, peer_id, flags, NULL, NULL);
328 }
329
330
331 bool EmergeManager::enqueueBlockEmergeEx(
332         v3s16 blockpos,
333         session_t peer_id,
334         u16 flags,
335         EmergeCompletionCallback callback,
336         void *callback_param)
337 {
338         EmergeThread *thread = NULL;
339         bool entry_already_exists = false;
340
341         {
342                 MutexAutoLock queuelock(m_queue_mutex);
343
344                 if (!pushBlockEmergeData(blockpos, peer_id, flags,
345                                 callback, callback_param, &entry_already_exists))
346                         return false;
347
348                 if (entry_already_exists)
349                         return true;
350
351                 thread = getOptimalThread();
352                 thread->pushBlock(blockpos);
353         }
354
355         thread->signal();
356
357         return true;
358 }
359
360
361 //
362 // Mapgen-related helper functions
363 //
364
365
366 // TODO(hmmmm): Move this to ServerMap
367 v3s16 EmergeManager::getContainingChunk(v3s16 blockpos)
368 {
369         return getContainingChunk(blockpos, mgparams->chunksize);
370 }
371
372 // TODO(hmmmm): Move this to ServerMap
373 v3s16 EmergeManager::getContainingChunk(v3s16 blockpos, s16 chunksize)
374 {
375         s16 coff = -chunksize / 2;
376         v3s16 chunk_offset(coff, coff, coff);
377
378         return getContainerPos(blockpos - chunk_offset, chunksize)
379                 * chunksize + chunk_offset;
380 }
381
382
383 int EmergeManager::getSpawnLevelAtPoint(v2s16 p)
384 {
385         if (m_mapgens.empty() || !m_mapgens[0]) {
386                 errorstream << "EmergeManager: getSpawnLevelAtPoint() called"
387                         " before mapgen init" << std::endl;
388                 return 0;
389         }
390
391         return m_mapgens[0]->getSpawnLevelAtPoint(p);
392 }
393
394
395 int EmergeManager::getGroundLevelAtPoint(v2s16 p)
396 {
397         if (m_mapgens.empty() || !m_mapgens[0]) {
398                 errorstream << "EmergeManager: getGroundLevelAtPoint() called"
399                         " before mapgen init" << std::endl;
400                 return 0;
401         }
402
403         return m_mapgens[0]->getGroundLevelAtPoint(p);
404 }
405
406 // TODO(hmmmm): Move this to ServerMap
407 bool EmergeManager::isBlockUnderground(v3s16 blockpos)
408 {
409         // Use a simple heuristic
410         return blockpos.Y * (MAP_BLOCKSIZE + 1) <= mgparams->water_level;
411 }
412
413 bool EmergeManager::pushBlockEmergeData(
414         v3s16 pos,
415         u16 peer_requested,
416         u16 flags,
417         EmergeCompletionCallback callback,
418         void *callback_param,
419         bool *entry_already_exists)
420 {
421         u16 &count_peer = m_peer_queue_count[peer_requested];
422
423         if ((flags & BLOCK_EMERGE_FORCE_QUEUE) == 0) {
424                 if (m_blocks_enqueued.size() >= m_qlimit_total)
425                         return false;
426
427                 if (peer_requested != PEER_ID_INEXISTENT) {
428                         u16 qlimit_peer = (flags & BLOCK_EMERGE_ALLOW_GEN) ?
429                                 m_qlimit_generate : m_qlimit_diskonly;
430                         if (count_peer >= qlimit_peer)
431                                 return false;
432                 } else {
433                         // limit block enqueue requests for active blocks to 1/2 of total
434                         if (count_peer * 2 >= m_qlimit_total)
435                                 return false;
436                 }
437         }
438
439         std::pair<std::map<v3s16, BlockEmergeData>::iterator, bool> findres;
440         findres = m_blocks_enqueued.insert(std::make_pair(pos, BlockEmergeData()));
441
442         BlockEmergeData &bedata = findres.first->second;
443         *entry_already_exists   = !findres.second;
444
445         if (callback)
446                 bedata.callbacks.emplace_back(callback, callback_param);
447
448         if (*entry_already_exists) {
449                 bedata.flags |= flags;
450         } else {
451                 bedata.flags = flags;
452                 bedata.peer_requested = peer_requested;
453
454                 count_peer++;
455         }
456
457         return true;
458 }
459
460
461 bool EmergeManager::popBlockEmergeData(v3s16 pos, BlockEmergeData *bedata)
462 {
463         std::map<v3s16, BlockEmergeData>::iterator it;
464         std::unordered_map<u16, u16>::iterator it2;
465
466         it = m_blocks_enqueued.find(pos);
467         if (it == m_blocks_enqueued.end())
468                 return false;
469
470         *bedata = it->second;
471
472         it2 = m_peer_queue_count.find(bedata->peer_requested);
473         if (it2 == m_peer_queue_count.end())
474                 return false;
475
476         u16 &count_peer = it2->second;
477         assert(count_peer != 0);
478         count_peer--;
479
480         m_blocks_enqueued.erase(it);
481
482         return true;
483 }
484
485
486 EmergeThread *EmergeManager::getOptimalThread()
487 {
488         size_t nthreads = m_threads.size();
489
490         FATAL_ERROR_IF(nthreads == 0, "No emerge threads!");
491
492         size_t index = 0;
493         size_t nitems_lowest = m_threads[0]->m_block_queue.size();
494
495         for (size_t i = 1; i < nthreads; i++) {
496                 size_t nitems = m_threads[i]->m_block_queue.size();
497                 if (nitems < nitems_lowest) {
498                         index = i;
499                         nitems_lowest = nitems;
500                 }
501         }
502
503         return m_threads[index];
504 }
505
506
507 ////
508 //// EmergeThread
509 ////
510
511 EmergeThread::EmergeThread(Server *server, int ethreadid) :
512         enable_mapgen_debug_info(false),
513         id(ethreadid),
514         m_server(server),
515         m_map(NULL),
516         m_emerge(NULL),
517         m_mapgen(NULL)
518 {
519         m_name = "Emerge-" + itos(ethreadid);
520 }
521
522
523 void EmergeThread::signal()
524 {
525         m_queue_event.signal();
526 }
527
528
529 bool EmergeThread::pushBlock(const v3s16 &pos)
530 {
531         m_block_queue.push(pos);
532         return true;
533 }
534
535
536 void EmergeThread::cancelPendingItems()
537 {
538         MutexAutoLock queuelock(m_emerge->m_queue_mutex);
539
540         while (!m_block_queue.empty()) {
541                 BlockEmergeData bedata;
542                 v3s16 pos;
543
544                 pos = m_block_queue.front();
545                 m_block_queue.pop();
546
547                 m_emerge->popBlockEmergeData(pos, &bedata);
548
549                 runCompletionCallbacks(pos, EMERGE_CANCELLED, bedata.callbacks);
550         }
551 }
552
553
554 void EmergeThread::runCompletionCallbacks(const v3s16 &pos, EmergeAction action,
555         const EmergeCallbackList &callbacks)
556 {
557         for (size_t i = 0; i != callbacks.size(); i++) {
558                 EmergeCompletionCallback callback;
559                 void *param;
560
561                 callback = callbacks[i].first;
562                 param    = callbacks[i].second;
563
564                 callback(pos, action, param);
565         }
566 }
567
568
569 bool EmergeThread::popBlockEmerge(v3s16 *pos, BlockEmergeData *bedata)
570 {
571         MutexAutoLock queuelock(m_emerge->m_queue_mutex);
572
573         if (m_block_queue.empty())
574                 return false;
575
576         *pos = m_block_queue.front();
577         m_block_queue.pop();
578
579         m_emerge->popBlockEmergeData(*pos, bedata);
580
581         return true;
582 }
583
584
585 EmergeAction EmergeThread::getBlockOrStartGen(
586         const v3s16 &pos, bool allow_gen, MapBlock **block, BlockMakeData *bmdata)
587 {
588         MutexAutoLock envlock(m_server->m_env_mutex);
589
590         // 1). Attempt to fetch block from memory
591         *block = m_map->getBlockNoCreateNoEx(pos);
592         if (*block && !(*block)->isDummy()) {
593                 if ((*block)->isGenerated())
594                         return EMERGE_FROM_MEMORY;
595         } else {
596                 // 2). Attempt to load block from disk if it was not in the memory
597                 *block = m_map->loadBlock(pos);
598                 if (*block && (*block)->isGenerated())
599                         return EMERGE_FROM_DISK;
600         }
601
602         // 3). Attempt to start generation
603         if (allow_gen && m_map->initBlockMake(pos, bmdata))
604                 return EMERGE_GENERATED;
605
606         // All attempts failed; cancel this block emerge
607         return EMERGE_CANCELLED;
608 }
609
610
611 MapBlock *EmergeThread::finishGen(v3s16 pos, BlockMakeData *bmdata,
612         std::map<v3s16, MapBlock *> *modified_blocks)
613 {
614         MutexAutoLock envlock(m_server->m_env_mutex);
615         ScopeProfiler sp(g_profiler,
616                 "EmergeThread: after Mapgen::makeChunk", SPT_AVG);
617
618         /*
619                 Perform post-processing on blocks (invalidate lighting, queue liquid
620                 transforms, etc.) to finish block make
621         */
622         m_map->finishBlockMake(bmdata, modified_blocks);
623
624         MapBlock *block = m_map->getBlockNoCreateNoEx(pos);
625         if (!block) {
626                 errorstream << "EmergeThread::finishGen: Couldn't grab block we "
627                         "just generated: " << PP(pos) << std::endl;
628                 return NULL;
629         }
630
631         v3s16 minp = bmdata->blockpos_min * MAP_BLOCKSIZE;
632         v3s16 maxp = bmdata->blockpos_max * MAP_BLOCKSIZE +
633                                  v3s16(1,1,1) * (MAP_BLOCKSIZE - 1);
634
635         // Ignore map edit events, they will not need to be sent
636         // to anybody because the block hasn't been sent to anybody
637         MapEditEventAreaIgnorer ign(
638                 &m_server->m_ignore_map_edit_events_area,
639                 VoxelArea(minp, maxp));
640
641         /*
642                 Run Lua on_generated callbacks
643         */
644         try {
645                 m_server->getScriptIface()->environment_OnGenerated(
646                         minp, maxp, m_mapgen->blockseed);
647         } catch (LuaError &e) {
648                 m_server->setAsyncFatalError("Lua: finishGen" + std::string(e.what()));
649         }
650
651         /*
652                 Clear generate notifier events
653         */
654         m_mapgen->gennotify.clearEvents();
655
656         EMERGE_DBG_OUT("ended up with: " << analyze_block(block));
657
658         /*
659                 Activate the block
660         */
661         m_server->m_env->activateBlock(block, 0);
662
663         return block;
664 }
665
666
667 void *EmergeThread::run()
668 {
669         BEGIN_DEBUG_EXCEPTION_HANDLER
670
671         v3s16 pos;
672
673         m_map    = (ServerMap *)&(m_server->m_env->getMap());
674         m_emerge = m_server->m_emerge;
675         m_mapgen = m_emerge->m_mapgens[id];
676         enable_mapgen_debug_info = m_emerge->enable_mapgen_debug_info;
677
678         try {
679         while (!stopRequested()) {
680                 std::map<v3s16, MapBlock *> modified_blocks;
681                 BlockEmergeData bedata;
682                 BlockMakeData bmdata;
683                 EmergeAction action;
684                 MapBlock *block;
685
686                 if (!popBlockEmerge(&pos, &bedata)) {
687                         m_queue_event.wait();
688                         continue;
689                 }
690
691                 if (blockpos_over_max_limit(pos))
692                         continue;
693
694                 bool allow_gen = bedata.flags & BLOCK_EMERGE_ALLOW_GEN;
695                 EMERGE_DBG_OUT("pos=" PP(pos) " allow_gen=" << allow_gen);
696
697                 action = getBlockOrStartGen(pos, allow_gen, &block, &bmdata);
698                 if (action == EMERGE_GENERATED) {
699                         {
700                                 ScopeProfiler sp(g_profiler,
701                                         "EmergeThread: Mapgen::makeChunk", SPT_AVG);
702
703                                 m_mapgen->makeChunk(&bmdata);
704                         }
705
706                         block = finishGen(pos, &bmdata, &modified_blocks);
707                 }
708
709                 runCompletionCallbacks(pos, action, bedata.callbacks);
710
711                 if (block)
712                         modified_blocks[pos] = block;
713
714                 if (!modified_blocks.empty())
715                         m_server->SetBlocksNotSent(modified_blocks);
716         }
717         } catch (VersionMismatchException &e) {
718                 std::ostringstream err;
719                 err << "World data version mismatch in MapBlock " << PP(pos) << std::endl
720                         << "----" << std::endl
721                         << "\"" << e.what() << "\"" << std::endl
722                         << "See debug.txt." << std::endl
723                         << "World probably saved by a newer version of " PROJECT_NAME_C "."
724                         << std::endl;
725                 m_server->setAsyncFatalError(err.str());
726         } catch (SerializationError &e) {
727                 std::ostringstream err;
728                 err << "Invalid data in MapBlock " << PP(pos) << std::endl
729                         << "----" << std::endl
730                         << "\"" << e.what() << "\"" << std::endl
731                         << "See debug.txt." << std::endl
732                         << "You can ignore this using [ignore_world_load_errors = true]."
733                         << std::endl;
734                 m_server->setAsyncFatalError(err.str());
735         }
736
737         END_DEBUG_EXCEPTION_HANDLER
738         return NULL;
739 }