Recenzovaný vědecký časopis / Peer-reviewed scientific journal Ročník / Year: 2013 Číslo / Number: 2 ISSN: 1805-4951
Vydává / Publisher: Vysoká škola ekonomická v Praze / University of Economics Prague
Recenzovaný vědecký časopis / Peer-reviewed scientific journal Ročník / Year: 2013 (vychází dvakrát ročně / published twice a year) Číslo / Number: 2 Místo vydání / Place of edition: Praha ISSN 1805-4951 Vydává / Publisher: Vysoká škola ekonomická v Praze / University of Economics Prague nám. W. Churchilla 4 130 67 Praha 3 Czech Republic (The European Union) IČ / ID: 61384399 Web: http://aip.vse.cz
Kontakt a technické informace / Contact and technical information: Václav Řezníček –
[email protected] Zdeněk Smutný –
[email protected]
Redakční rada / Board of editors: Stanislava Mildeová1 | University of Economics Prague, Czech Republic Martin Boháček | University of Economics Prague, Czech Republic Tomáš Bruckner | University of Economics Prague, Czech Republic Vesna Čančer | University of Maribor, Slovenia Rasa Daugėlienė | Kaunas University of Technology, Lithuania Jiří Fišer | Jan Evangelista Purkyne University in Ústí nad Labem, Czech Republic Milan Houška | Czech University of Life Sciences Prague, Czech Republic Miloslav Hub | University of Pardubice, Czech Republic Petr Kučera | Komix, Prague, Czech Republic Petr Máša | Partners Financial Services, Prague, Czech Republic Jan Ministr | VSB-Technical University of Ostrava, Czech Republic Eve Mitleton-Kelly | London School of Economics, United Kingdom Ingeborg Němcová | University of Economics Prague, Czech Republic Jan Rauch | University of Economics Prague, Czech Republic Václav Řezníček | University of Economics Prague, Czech Republic Markus Schwaninger | University of St. Gallen, Switzerland Antonín Slabý | University of Hradec Králové, Czech Republic Zdeněk Smutný | University of Economics Prague, Czech Republic Olga Štěpánková | Czech Technical University in Prague, Czech Republic Prokop Toman | Czech University of Life Sciences Prague, Czech Republic Milan Turčáni | Constantine the Philosopher University in Nitra, Slovakia Viktor Vojtko | University of South Bohemia in České Budějovice, Czech Republic Jan Voráček | College of Polytechnics Jihlava, Czech Republic
1
Šéfredaktorka / Editor in Chief
OBSAH / CONTENT:
Recenzované stati / Peer-reviewed papers Novel methods of utilizing Jitter for Network Congestion Control ......................................... 1 Ivan Klimek, Marek Čajkovský, František Jakab Flexible data queries ............................................................................................................... 25 Miroslav Hudec A Review on Macroscopic Pedestrian Flow Modelling ......................................................... 39 Anna Kormanová Subgraph Colouring Technique for Computer with Data Driven Computation Model ......... 51 Liberios Vokorokos, Branislav Madoš, Norbert Ádám, Marek Čajkovský Framework for utilizing computational devices within simulation ........................................ 59 Miroslav Mintál TOGAF usage in outsourcing of software development ........................................................ 68 Aziz Ahmad Rais, Rudolf Pecinovský Mikroprogram pre riadenie procesu spájania operandov v architektúre DF KPI ................... 77 / Microprogram for operand matching in DF KPI architecture Norbert Ádám Inovativní přístup k rozvoji Informačního managementu magisterského oboru studia na VŠE v Praze .......................................................................... 97 / An innovative approach to the development of the master study of the Information management at the University of Economics in Prague Vlasta Střížová, Zdeněk Smutný Systémová dynamika: disciplína pro zkoumání chování komplexních sociálních systémů ............................................................................ 112 / System dynamics: discipline for studying complex soft systems Stanislava Mildeová
Knižní recenze / Book reviews Dynamika sociálně-ekonomických procesů ......................................................................... 122 / Dynamics of socio-economic processes Ingeborg Němcová
Zamyšlení / Reflections (In)formování sociálních systémů ........................................................................................ 125 / (In)formation of social systems Miloš Vítek
Acta Informatica Pragensia 2(2), 2013, 1–24, DOI: 10.18267/j.aip.20 Online: aip.vse.cz
Section: Peer-reviewed papers
Novel methods of utilizing Jitter for Network Congestion Control Ivan Klimek1, Marek Čajkovský1, František Jakab1 1
Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice, Letná 9, 042 00 Košice, Slovak Republic {ivan.klimek, marek.cajkovsky, frantisek.jakab}@tuke.sk
Abstract: This paper proposes a novel paradigm for network congestion control. Instead of perpetual conflict as in TCP, a proof-of-concept first-ever protocol enabling inter-flow communication without infrastructure support thru a side channel constructed on generic FIFO queue behaviour is presented. This enables independent flows passing thru the same bottleneck queue to communicate and achieve fair capacity sharing and a stable equilibrium state in a rapid fashion. Keywords: Congestion control, Transport protocol, Inter-flow communication, Jitter
2
Klimek, Čajkovský, Jakab
1 INTRODUCTION Recent advances in rateless erasure codes [16, 22] enable to separate reliability from rate/congestion control for general purpose unicast transport protocols [15]. Currently for purposes where reliability is not necessary, for example multimedia applications, or when other layers take care of reliability for example through Application Layer Forward Error Correction (AL-FEC) [3]. but congestion control has to be guaranteed - TCP-Friendly Rate Control (TFRC) provides an option [8]. But it does so by modelling the Transmission Control Protocol (TCP) [5] performance as a function of packet loss and Round-Trip Delay Time (RTT) under the same conditions and limiting its rate accordingly. We argue that this approach is sub-optimal because it inherits the TCP performance which is not always satisfactory (For example on Wireless Wide Area Network (WAN) links, or Long Fat Networks (LFN), resp. the issue of Bufferbloat [18] etc. ). TCP flow synchronization occurs when congestion caused packet drop reaches levels that it affects all the flows on the overflowing bottleneck, as TCP understands packet drop as an indication of congestion it reduces its data rate. Because all the affected flows react the same way, the effect is flow synchronization [28] [23]. More generally speaking this behaviour is not TCP-specific, congestion can be utilized for synchronizing into a stable equilibrium state, where instead of aggressively reducing the rate as TCP does, flows stop increasing their rate and only reduce it so that packet loss or queuing doesn’t occur, thus stabilize the overflowing buffer, reaching and holding the full capacity of the bottleneck. Protocol that utilizes this behaviour can be designed [14], the problem with this state is that the capacity is not distributed fairly amongst flows it is just stabilized at whatever utilization the flows reached in the moment bottleneck capacity was reached. While experimenting with this stable state we noticed an interesting phenomena, we were able to on demand break the stable state and increase or decrease jitter levels on all flows passing thru the bottleneck with the change of the data rate of one of the competing flows even if it represented a fraction of the total bottleneck data rate. Thus effectively creating a broadcast communication medium between independent flows from the bottleneck queue. We present a proof of concept and explore the possibility of using this mechanism for congestion control.
Acta Informatica Pragensia
3
Fig. 1. Example of two TCP flows synchronizing. X-axis = time [ms], Y-axis = no. of packets/s
2 JITTER AS CONTROL SIGNAL Several variants of TCP already proposed using RTT as an additional control signal on top of packet drop. TCP Vegas [4] aims to improve the end-to-end congestion avoidance mechanism of TCP. The main objective is to estimate the expected bandwidth for the connection in order to control the transmission rate that can avoid network congestion. To achieve this goal, the scheme defines BaseRTT value which represents the minimal round trip time during the transmission to calculate the expected transmission rate of the link. After receiving an acknowledgement, sender continues to update ActualRTT value which represents the current RTT and is necessary to be able to calculate the real transmission rate. If the difference between BaseRTT and ActualRTT is higher than upper bound threshold, congestion may occur since sending rate is too high. Thus, sender decreases one congestion window size. If the difference is smaller than lower bound, sender should increase one congestion window size to utilize the available bandwidth. Else, sender should keep the sending rate stable. TCP Vegas suffers fairness problems when the connections start transmitting at different times. Also, TCP Vegas is not suitable for wireless network since it cannot distinct loss events. TCP Veno [10] is a loss differentiation scheme for the wireless environment and it is derived from TCP Vegas. This method provides another threshold to differentiate between wireless and congestion losses. Although the performance is improved in wireless environment, the loss differentiation scheme cannot work well when the random loss rate is high. And it still does not solve the fairness issues of Vegas.
4
Klimek, Čajkovský, Jakab
TCP Jersey [26] is another enhancement which improves network performance in wireless network. But because it needs router support (ECN) we will not describe it further. All the mentioned schemes so far used RTT, such congestion estimator cannot perform well when the traffic load gets heavy over reverse links or asymmetric links. On the other hand, JTCP [24, 25, 7] applies the jitter ratio to differentiate wireless losses from congestion losses and revise the Reno’s congestion control scheme to adapt to wireless environments. Jitter ratio [6] is derived from the inter-arrival jitter, which is defined in Real-time Transport Protocol (RTP) [21]. Inter-arrival jitter is the variance of packet spacing at the receiver side and packet spacing at the sender side. In other words, it presents current path’s status by the packet-by-packet delay. On packet loss JTCP compares the average jitter ratio with a threshold, which is defined as the inverse of congestion window size. If average jitter ratio is greater than this threshold, JTCP regards the loss event as congestion loss and reduces its congestion window size to one half. Otherwise, the loss event will be viewed as wireless loss. Sender will not reduce the congestion window and will do fast retransmission immediately. The problem with such approach is the setting of the threshold, inverse of congestion window size is a local parameter and does not represent the state of the network. Also, it means that on higher transmission speeds and thus bigger congestion windows the system will be much more sensitive to jitter variance. Jitter seems to be better suited as an additional control signal than RTT as it describes only the one way delay changes triggered by changed path load, thus it is more stable as it cannot be affected by the load of the reverse path.
3 CHANGING THE PERSPECTIVE State of the art transport protocols still use the TCP "point of view" - looking at data on packet level [27] [12], even if Forward Error Correction (FEC) protocols slowly gain traction [17] they are no different. The presented design is based on FEC codes and uses their error correcting properties to change the perspective from a packet level to flow level. This abstraction can be compared to the difference in the physics of a particle and a wave. We no longer have to deal with individual packets, retransmit them etc. they are all just pieces of a flow. Where the flow can be modulated as a waveform to create a secondary channel without affecting the primary channel – the information it transmits.
Acta Informatica Pragensia
5
Fig. 2. In digital fountain codes, the encoder produces a potentially infinite number of encoded symbols and the decoder is able to recover the original information from any set of at least K=k(1+e) encoded symbols. [13]
Inter-flow communication is a crucial milestone, it enables fast convergence to a stable network state where resources are allocated with absolute fairness. This is in contrast with currently used TCP-based logic, where flows compete for capacity in a never ending fight for resources without ever reaching a stable state or full resource utilization. All designs that tried to improve this situation did so by utilizing feedback from the network requiring the network to change – routers to add functionality [19],[1]. The presented system is the first as far as authors are aware of that provides the capability for network flows to cooperate in achieving optimal network utilization without the need for any support from the network – thus usable on the currently deployed infrastructure. Most queues still use the most basic queuing algorithm – First in First out (FIFO) aka DropTail [20]. This fact that FIFO queues are "everywhere" in Internet is considered an issue causing problems such as Bufferbloat [11]. In fact their omnipresence is a crucial enabler for our mechanism to function. Other queuing mechanisms such as Active Queue Management (AQM) (Random Early Detection (RED)[9]/Weighted RED (WRED)[2] etc.) should be also theoretically to some extent supported but we did not so far look deeper into them. The presented design primarily targets last mile routers as they are where most congestion occurs [11]. This scope limitation enables us to design a simple proof of concept communication system as not too many concurrent flows occur at a last mile bottleneck when compared to a core router bottleneck situation. Figure 3 illustrates the core concept behind our design, independent flows interact at the bottleneck queue. When the ingress packet rate is higher than egress packet rate – buffering occurs. Packets are ordered inside of the queue by their ingress time, if one flow increases its rate, the gap between packets of other flows will be altered creating a measurable change. In the previously mentioned equilibrium state achieved by congestion synchronization [14] a change of the transmitter (TX) inter-packet delta aka packet rate of one flow can on-demand break the queue equilibrium and create jitter measurable by all flows in that queue. The flow can also return back to the original rate, thus a stable/unstable jitter modulation scheme can be constructed.
6
Klimek, Čajkovský, Jakab
Fig. 3. FIFO inter-flow interaction
4 FIFO THE THEORETICAL COMMUNICATION CHANNEL FIFO is far from a perfect communication medium, it is not linear as the TX of a frequency or amplitude modulation will not necessarily create a linear response on the receiver (RX) of a different flow. The sampling rate of the RX flow is not stable and not only a function of its packet rate but a function of the current state of the queue that is a superposition of all the different flows passing thru it. Classic modulation approaches such as frequency or amplitude modulation are thus unusable, transmitting special patterns such as patterns with strong auto-correlation properties also doesn't produce stable results as error, erasures and shifts are arbitrary. Even if frequency modulation would be possible it would not be ideal as it would require many samples to be precise. We therefore propose a modulation requiring only a few samples that provides deterministically achievable results – an equilibrium breaking modulation – where flows reach a stable state that is broken and restored in protocol defined time windows. Because of the mentioned properties a robust coding scheme is required, first of all the true sampling rate is not known therefore the code needs to be self-clocking. The start of the sequence needs to be clearly recognizable, to achieve this the presented code is self-synchronizing by reversing the transmitted sequence every period.
7
Acta Informatica Pragensia
∈
∗
⇒
,
∈
∗
(1)
Equation 1: Self-synchronization, a code X over an alphabet A has a synchronizing word w in A+
Self-clocking is achieved by utilizing Differential Manchester encoding where a transition is guaranteed at least once every bit, allowing the receiver to perform clock recovery. Differential scheme is preferred as detecting transitions is often less error-prone than comparing against a threshold in a noisy environment as a jitter based modulation is, also the polarity of the transition is unimportant just the presence of a change is detected. The receiver monitors the variance of jitter, where jitter is defined as the inter-packet delta. Variance is derivative of jitter, thus the second derivative of packet arrival time.
Fig. 4. Sample delta jitter of a receiver flow. X-axis = jitter [ms], Y-axis = no. of packets
The variance is measured by taking the zero-crossings of the delta jitter. The number of zero crossing directly reflects the state of the queue – stable/not stable. Because the modulation window is protocol defined, the number of variance changes per window can be interpreted to bits. The presented design uses 2 changes to encode bit 1, one change to encode bit 0 – the reconstructed signal in Figure 5 is therefore 11001000.
8
Klimek, Čajkovský, Jakab
Fig. 5. Sample receiver reconstructed signal - Diff. Manchester encoded. X-axis = jitter [ms], Y-axis = carrier signal (logical 0 or 1)
The simulations were performed in ns2 using a star topology with five TX nodes, one router node and one receiver node, each TX node was transmitting one flow. All flows merged at the router node which connection with the receiver node represented the bottleneck link. The modulated flow changed its inter-packet delta between 4ms for the stable state and 2ms for the excited state. The four receiver flows had a constant inter packet delta of 2ms. Protocol defined modulation window was 20ms. Bottleneck link speed was set to match the stable state. Receiver code post-processed the ns2 data in Matlab. Figure 6 illustrates the bandwidth allocation of the bottleneck per flow, the 4 receiver flows are superimposed as they have the same rate, so the total rate of the not-modulated flows is packet every 0.5ms vs. packet every 2 resp 4ms for the modulated flow. Meaning in average there is 6 times more not-modulated packets than modulated in the queue at every moment.
Acta Informatica Pragensia
9
Fig. 6. Bottleneck bandwidth utilization per-flow - red is the modulated flow, blue are the 4 receiver flows superimposed.
To demonstrate that only a fraction of the total queue capacity needs to be modulated for other flows passing thru it be able to receive the signal the following experiment was performed. The notmodulated flows transmitted a packet every millisecond, the modulated flow every 8ms with oscillation of 1ms up/down resulting in 7ms/9ms inter-packet delta for duration of protocol defined window 20ms. Thus in average there was 32 times as many not-modulated packets than modulated in the queue at every moment. Figure 7 illustrates this bandwidth allocation and Figure 8 shows the reconstructed signal. Because the presented modulation only aims to trigger instability in the queue, only a small change is necessary to achieve measurable difference. In contrast to usual modulations where signal is being modulated on a medium, we modulate by creating and disturbing a stable state of the medium. This approach could be compared to the resonant frequencies known from physics, where even a small periodic driving force can produce large amplitude oscillations. To set the amplitude right we propose to use an Automatic Gain Control on the RX of the modulated flow, because its the RX of the flow that is modulating it can have the knowledge of the fact that modulation should be happening and what
10
Klimek, Čajkovský, Jakab
should be transmitted. If the signal is not strong enough because of ambient jitter the RX can immediately notify the TX that amplitude needs to be increased. For the primary information channel the modulation/amplitude itself is invisible as it just oscillates to both direction so in average the rate is constant.
Fig. 7. Bottleneck bandwidth utilization per-flow - red is the modulated flow, blue are the 4 receiver flows superimposed.
Fig. 8. Reconstructed zoomed color coded signal - red is 1, green and yellow are 0 in up/down position resp.
Acta Informatica Pragensia
11
5 FIFO THE PRACTICAL COMMUNICATION CHANNEL To verify that the presented theoretical model really works, we implemented it in C and tested “in the wild” on the most worst case scenario we could think of. Worst case meaning a scenario where arbitrary jitter is abundant. We used the topology from Figure 3. Two hosts connected via WiFi to a 3G router, one server was located at the Technical University Košice, the other in Germany – approximately 20ms RTT from the server at our University. Host B had 3 active connections, each at 30ms inter-packet delta, all not-modulated – meaning static rate. Host A had a single modulated flow at base rate of 40ms, with symmetrical amplitude of 10ms, thus one period inter-packet delta was 30ms, the next 50ms and vice versa. The flows from host B and host A met at the shared bottleneck – 3G wifi router uplink. Except of that they had nothing in common, they were destined for different servers and originated from different hosts. Figure 9 shows the jitter measured on one of flow B flows. Figure 10 the signal filtered from the jitter using signal averaging (two pass moving average with window size of half of the protocol defined window). The performed experiment clearly demonstrated that only a fraction of the total traffic passing thru the bottleneck needs to be modulated for other flows to be able to detect it. In this experiment only the clocking signal was transmitted e.g. all zeros – one change per period. Figure 11 illustrate how does a 1010 signal look – two changes per period marking bit 1.
Fig. 9. Jitter of one of the host B flows. Periodic modulation is clearly visible. X-axis = jitter [ms], Y-axis = no. of packets
12
Klimek, Čajkovský, Jakab
Fig. 10. Filtered signal from the jitter on Figure 9. X-axis = jitter [ms], Y-axis = no. of packets
Acta Informatica Pragensia
13
Fig. 11. Signal + colored representation - bit 1, two changes per period - red, bit 0 up position - green, bit 0 down position – yellow. X-axis = averaged jitter from [ms], Y-axis = no. of packets
6 DIGITAL VS. ANALOG As the previous section demonstrated, digital modulation can be achieved. The problem is it would take simply too long for information to be transmitted this way. The protocol defined window in which modulation occurs needs to be at least several tens of milliseconds long so there are enough samples (packets) for signal averaging to eliminate the random noise. If we can transmit only one bit in each protocol defined window, it would take several Round Trip Times on most links to transmit any usable information. We therefore aimed our focus on determining the effects of interactions between flows on the FIFO that could possibly be combined into enough measurable factors that could be used for an analog modulation.
Fig. 12. Jitter of 5 flows interacting at a bottleneck FIFO queue, the first flow from top is the modulated. X-axis = jitter [ms], Y-axis = no. of packets
Figure 12 shows the jitter of 5 flows passing thru the same bottleneck. Flow 1 (first from top) is modulated – changing its packet rate in a periodic manner. Flows reached a stable equilibrium state – where they stopped increasing their rate and Flow1 started modulating. Each flow was able to reach a different rate – clearly visible from the jitter graph is that the rate of Flow 2 and 3 are very similar.
14
Klimek, Čajkovský, Jakab
Fig. 13. Zoomed jitter of Flow 2 from Figure 12. Nomenclature for Equation 2 and 3: yellow = jitter amplitude, black = up period length, red = down period length.
Figure 13 shows a zoomed portion of Figure 12, market yellow is the amplitude of the received modulation, black is the length (in packets) of the UP phase and red is the length of DOWN phase. These three variables describe what is going on the FIFO – amplitude is the change created by the modulated flow and is received inversed. When the modulated flow transmits more packets – less packets of other flows will pass thru the FIFO. When the modulated flow transmits less packets – more packets of other flows will pass thru it. The ratio between the UP and DOWN phases corresponds directly to the ratio of the modulated flow rate at higher (amp+ [ms]) and lower rate (amp- [ms]). Jitter samples the state of the queue, the modulated flow changes it by its modulation amplitude thus all the non-modulated flows that pass thru the queue at that time will be subjected to the same level of change – resulting in 1:1 transmission of the amplitude to all flows even if they transmit at different rates. _ _
_ _
(2)
Equation 2: Relation between the period lengths and modulated flow rate, also visible from Figure 13.
_
(3)
Equation 3: Relation between jitter amplitude and modulated flow rate, also visible from Figure 13.
Where interval is the inter packet gap of the modulated flow and (amp+) = interval + amplitude (amp-)= interval - amplitude In contrast to jitter where the amplitude is received exactly as it is transmitted on bandwidth the effects are specific to each flow and its speed as Figure 14 illustrates. Jitter is the measure of change, a stable jitter amplitude translates into a flow specific amplitude in the “bandwidth domain”. A jitter amplitude of X milliseconds translates into a change of Y percent in jitter for that particular flow. Meaning the same level Y of change will be visible as the bandwidth amplitude – Y percent of the flow speed. Also
Acta Informatica Pragensia
15
important to note is that the bandwidth amplitude of the modulated flow is because of the limited capacity of the bottleneck/FIFO matched by the inversed summed amplitude of the other flows. (not visible from Figure 14 as flows are superimposed). This property can be used as a validator of the results from Equation 2 and 3.
Fig. 14. Bandwidth allocation demonstrating different amplitude size based on the flow speed.
All together these parameters can be used to construct an analog communication scheme, where the modulating flow transmits just a square wave with a constant amplitude and frequency – defined by the protocol defined modulation window. The non-modulated flows can decode the rate and the amplitude of the modulated flow from just two periods worth of samples as shown in Figure 13.
7 CONGESTION CONTROL USING INTER-FLOW COMMUNICATION We have constructed a simple congestion synchronizing inter-flow communication based, congestion control scheme to demonstrate the possible benefits of communication between independent flows. Synchronization is achieved by exponential search until less packets than expected arrive at the flow RX. The RX holds the logic determining the rate of the flow and decides based on the number of packets it receives, if the expected number of packets per reporting interval is received the rate is
16
Klimek, Čajkovský, Jakab
increased, if less packets is received the rate is set to the rate corresponding to the amount of packets actually received – thus at the maximum achievable capacity.
Fig. 15. FSM describing the congestion control algorithm.
The first flow to reach the capacity is because of the aggressiveness of the exponential search expected to be the fastest flow. During the exponential search, the rate is increased in steps, between these steps the rate is stable and the flow listens to possible jitter modulation. If it reaches the capacity but was not able to detect any modulation present it starts to modulate a square wave signal with period of the protocol defined with and a stable amplitude. If another flow is present, it receives the modulation and immediately changes its rate to the decoded rate of the modulating flow. The result of such action is that packets of both flows now arrive at the bottleneck with same inter-packet gaps, thus any effect such as buffering or drop would have the same results on both of them. The result is measurable and rate is set according to it, thus both flows set the same rate and just shared the capacity fairly. The modulated flow immediately detects a change on the network when the other flow changes its rate as less packets will arrive in that interval. To be able to detect when a stable state was achieved it stops modulating. After a stable amount of packets is received for at least two periods, the rate is adapted to the detected rate. If any change would happen such as a new flow or a flow was lost, a change would be detectable. Based on the change an action would be taken, if the jitter would rise and less packets than expected would be received possibly a new flow arrived. The first flow to detect such change would start modulate, the earlier mentioned logic would repeat. If the jitter would drop, possibly a flow was lost. The first flow to detect such change would start exponential search, because of its aggressiveness it is expected the rate would be achieved before other flows could react in the same way. After the new rate would be found, the flow would start modulate it to broadcast it to other flows, that would react and re-sync the capacity.
Acta Informatica Pragensia
17
Fig. 16. Simulated capacity sharing with the knowledge of the maximum flow rate.
Figure 16 illustrates the effect of the broadcasted knowledge of the fastest flow rate. If flows know this information, fair and instant capacity sharing is trivial because the FIFO does quantization based on ingress time. If inter packet gaps are the same, the flows will get the same share of capacity. To limit over-buffering it is important to detect stabilized queue state and adapt the transmit rate accordingly in as shortest time as possible.
8 PERFORMANCE EVALUATION There was performed several experiments using various parameters for queue size. Another parameters which was not changed during experiment was; speed of the exponential search (multiplicative factor was set to 4) and the capacity usage goal (controlling how much capacity should each flow use - set to 90%). One of experiments is shown on figure 17 with queue size set to 20 packets. The simulation runtime was 10 seconds with flows stopping at time 9 seconds. Flows where starting gradually: Flow 1 at time 0, Flow 2 at time 0.3 seconds, Flow 3 at 0.3 seconds, Flow 4 at 0.4 seconds and Flow 5 at 0.5 seconds.
18
Klimek, Čajkovský, Jakab
Fig. 17 System throughput with queue size set to 20 packets. X axis = time elapsed [s], Y axis = throughput [kbps] The capacity usage goal is set after the speed of the FIFO equalization - thus after all flows set to the equal goal, they don't set to what they see is the actual throughput but only to the configured capacity usage goal in this example 90 percent of that. As expected the algorithm performs the same on all scenarios - minimal differences was visible between the another (queue size of 20, 50, 100, 1000 and infinite packets) experiments. To compare the presented protocol we believe the best way to see the novelty is to see the existing TCP variants in action and compare visually. Experimental settings (queue size, speed of the exponential search, capacity usage goal) was used on the same values as in previous experiment. The considered TCP variants where: Binary Increase Congestion control (BIC) and TCP CUBIC: Binary Increase Congestion control. Figure 18 shows TCP BIC system throughput. Figure 19 shows TCP CUBIC system throughput.
Acta Informatica Pragensia
Fig. 18a TCP BIC system throughput for 20 bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
Fig. 18b TCP BIC system throughput for 50 bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
19
20
Klimek, Čajkovský, Jakab
Fig. 18c TCP BIC system throughput for infinite bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
Fig 19a TCP CUBIC system throughput for 20 bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
Acta Informatica Pragensia
21
Fig 19b TCP CUBIC system throughput for 50 bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
Fig 19c TCP CUBIC system throughput for infinite bottleneck queue size. X axis = time elapsed [s], Y axis = throughput [kbps]
After reviewing TCP behaviour, it is clear that none of the variants provide comparable stability, convergence time nor intra-flow fairness to the presented algorithm. Personal opinion of the author is that numeric metrics are useful to compare sub-optimal approaches such as TCP variants in between each other, but hardly useful to compare against a "straight line" which is clearly visible in our approach.
22
Klimek, Čajkovský, Jakab
9 CONCLUSION This paper demonstrated both using simulations and real world measurements that inter-flow communication without any support from the infrastructure can be achieved. We demonstrated proofof-concepts of both analog and digital modulations over the FIFO jitter side-channel constructed between independent flows sharing the same bottleneck link utilizing the generic FIFO queue behaviour. Further we presented a minimalistic algorithm utilizing this communication to achieve rapid, fair and stable capacity sharing between flows. We hope that the presented proof-of-concepts will ignite wider research interest and drive progress towards a universally optimal transport protocol. Future research focus could include optimization of the analog approximation. Our future research will be aimed towards incorporation of fountain codes as main factors which can possible eliminate the dependency on RTT. ACKNOWLEDGEMENT This work is the result of the Project implementation: Competency Centre for Knowledge technologies applied in Innovation of Production Systems in Industry and Services, ITMS: 26220220155, supported by the Research & Development Operational Programme funded by the ERDF.
10 REFERENCES [1]
AYYUB Qazi, I., ZNATI T., ANDREW L.: Congestion Control using Efficient Explicit Feedback. In: INFOCOM 2009, IEEE, pp. 10-18. IEEE, 2009. DOI: 10.1109/INFCOM.2009.5061901
[2]
BODIN Ulf, OLOV Schelen, PINK Stephen: Load-tolerant differentiation with active queue management. In: ACM SIGCOMM Computer Communication Review 30.3 (2000): 4-16. DOI: 10.1145/382179.382180
[3]
BOURAS Christos, KANAKIS Nikolaos, KOKKINOS Vasileios, PAPAZOIS Andreas: ALFEC for streaming services over LTE systems. In: Wireless Personal Multimedia Communications (WPMC 1-5.), 2011 14th International Symposium on. IEEE, 2011.
[4]
BRAKMO L. S., PETERSON L. L.: TCP Vegas: end to end congestion avoidance on a global Internet. In: IEEE Journal on Selected Areas in Communications, vol. 13, no. 8, pp. 1465– 1480, 1995. DOI: 10.1109/49.464716
[5]
CERF Vinton, DALAL Yogen, SUNSHINE Carl: Specification of internet transmission control program. In: INWG General Note, Vol. 72., 1974.
[6]
CHEN Shi-Yang, WU Eric Hsiao-Kuang, CHEN Mei-Zhen: A new approach using timebased model for TCP-friendly rate estimation. In: Proceedings of the International Conference on Communications (ICC ’03), pp. 679–683, May 2003. DOI: 10.1109/ICC.2003.1204261
[7]
CHEN, Jyh-Ming, CHU Ching-Hsiang, WU Eric Hsiao-Kuang, TSAI Meng-Feng, WANG Jian-Ren: Improving SCTP Performance by Jitter-Based Congestion Control over WiredWireless Networks. In: EURASIP Journal on Wireless Communications and Networking, vol. 2011, 2011. DOI: 10.1155/2011/103027
Acta Informatica Pragensia
23
[8]
FLOYD S., KOHLER E., PADHYE J.: Profile for Datagram Congestion Control Protocol (DCCP) Congestion Control ID 3: TCP-Friendly Rate Control (TFRC). In: RFC 4342. March 2006.
[9]
FLOYD Sally, JACOBSON V.: Random early detection gateways for congestion avoidance. In: Networking, IEEE/ACM Transactions on 1.4 (1993): 397-413. DOI: 10.1109/90.251892
[10]
FU Cheng Peng, LIEW S.C: TCP Veno: TCP enhancement for transmission over wireless access networks. In: IEEE Journal on Selected Areas in Communications, vol. 21, no. 2, pp. 216–228, 2003. DOI: 10.1109/JSAC.2002.807336
[11]
GETTYS Jim, NICHOLS Kathleen: Bufferbloat: Dark Buffers in the Internet. In: IEEE Queue 9, no. 11 (2011): 40. DOI: 10.1109/MIC.2011.56
[12]
HYUNGSOO Jung, KIM Shin-gyu, YEOM Heon Y., KANG Sooyong, LIBMAN Lavy: Adaptive delay-based congestion control for high bandwidth-delay product networks. In: INFOCOM, 2011 Proceedings IEEE, pp. 2885-2893. IEEE, 2011. DOI: 10.1109/INFCOM.2011.5935127
[13]
Image Processing Lab, Electronics Department at Politecnico di Torino. Research @ IPL Digital fountains. [Online: 30.12.2011] http://www1.tlc.polito.it/sasipl/research_digital_fountains.php.
[14]
KLIMEK Ivan, KELTIKA Marian: Jitter Utilizing Congestion Estimation (JUICE). In: Proceedings of Scientific Conference of Young Researchers (SCYR) 2012, FEI TU Kosice, 2012.
[15]
KLIMEK Ivan: Wide Area Network Traffic Optimization - Written work to Doctoral Thesis. At: Technical University Košice, December 2011.
[16]
LUBY M., SHOKROLLAHI A., WATSON M., STOCKHAMMER T., MINDER L.: RaptorQ Forward Error Correction Scheme for Object Delivery. In: RFC 6330. August 2011.
[17]
MINJI Kim, MÉDARD Muriel, BARROS João: Modeling network coded TCP throughput: A simple model and its validation. In: 5th International ICST Conference on Performance Evaluation Methodologies and Tools ValueTools 2011. Newton: EAI Publishing. ISBN 9781936968091.
[18]
NAGLE John: On Packet Switches with Infinite Storage. In: IEEE Trans. Communications, Vol-35, No. 4, April 1987, pp. 435-438
[19]
NANDITA Dukkipati, McKEOWN Nick, FRASER Alexander G.: RCP-AC: Congestion Control to Make Flows Complete Quickly in Any Environment. In: INFOCOM 2006. 25 th IEEE International Conference on Computer Communications. Proceedings, pp. 1-5. IEEE, 2006. DOI: 10.1109/INFOCOM.2006.18
[20]
NARENDRAN Rajagoplan, MALA C.: A Comparative Study of Different Queuing Models Used in Network Routers for Congestion Avoidance. In: Information Technology and Mobile Communication (2011): 431-434. DOI: 10.1007/978-3-642-20573-6_77
[21]
SCHULZRINNE H., CASNER S., FREDERICK R., JACOBSON V.: RTP: A Transport Protocol for Real-Time Application. In: Internet Engineering Task Force (IETF), RFC 1889, 1996.
24
Klimek, Čajkovský, Jakab
[22]
SHOKROLLAHI Amin, LUBY Michael: Raptor Codes: Foundations and Trends(r) in Communications and Information Theory. In: Boston: Now. ISBN 16-019-8446-4. DOI: 10.1561/0100000060
[23]
SO-IN Chakchai: Loss Synchronization of TCP Connections at a Shared Bottleneck Link. In: WUSTL Technical Report, 2006.
[24]
WU Eric Hsiao-Kuang, CHEN Mei-Zhen: JTCP: Jitter-Based TCP for Heterogeneous Wireless Networks. In: IEEE Journal on Selected Areas in Communications, vol. 22, no. 4, pp. 757–766, 2004. DOI: 10.1109/JSAC.2004.825999
[25]
WU Eric Hsiao-Kuang, CHENG Yu-Chen: JRC: jitter-based rate control scheme for wiredwireless hybrid network. In: International Journal Pervasive Computing and Communications, vol. 3, no. 3, pp. 322-337, 2008. DOI: 10.1108/17427370710856264
[26]
XU K., TIAN Y., ANSARI N.: TCP-Jersey for Wireless IP Communications. In: IEEE Journal on Selected Areas in Communications, vol. 22, no. 4, pp. 747–756, 2004. DOI: 10.1109/JSAC.2004.825989
[27]
YUNHONG G., GROSSMAN R. L.: End-to-End Congestion Control for High Performance Data Transfer. In: IEEE/ACM Transaction on Networking, 2003.
[28]
ZHANG Lixia, SHENKER Scott, CLARK Daivd D.: Observations on the dynamics of a congestion control algorithm: The Effects of Two Way Traffic. In: ACM SIGCOMM '91, Zurich, 1991.DOI: 10.1145/115992.116006.
Acta Informatica Pragensia 2(2), 2013, 25–38, DOI: 10.18267/j.aip.21 Online: aip.vse.cz
Section: Peer-reviewed papers
Flexible data queries Miroslav Hudec1 1
Faculty of Economic Informatics, University of Economics in Bratislava, Dolnozemská cesta 1, 852 35 Bratislava, Slovak Republic
[email protected]
Abstract: The Structured Query Language (SQL) has been established as a standard for querying relational databases. However, users face the problem how to define their requirements for data by the exact query conditions. This work examines advantages of fuzzy queries, which provide a better representation of the user requirements by expressing imprecise conditions through linguistic terms. Further, the paper discusses solving empty and overabundant answer problems, revealing similarities in database entities and applying preferences in query conditions. Finally, paper discusses practical realisations of fuzzy queries. Keywords: Fuzzy logic, SQL, Benefits of fuzzy queries
26
Hudec
1 INTRODUCTION A query against a collection of data (in database) provides a formal description of the items of interest to the user posing this query [12]. For querying relational databases the Structured Query Language (SQL) has been developed. SQL queries use two-valued Boolean concepts (logical conditions) to describe the entities users are looking for e.g. select municipalities where altitude above sea level is greater than 1000 m. From the computational point of view this is powerful way for selecting a sub set of entities from a database. On the other side of a database are people which use the natural language in communication, searching for useful information and reasoning. Human approximate reasoning, although without precise measurements, is a very powerful way for finding solutions of various problems. Therefore, for people it is more convenient to use the concept based on natural language in data selection processes. “Computing, in its usual sense, is centred on manipulation of numbers and symbols.” [20] In contrast, computing with words is inspired by the singular human capability to perform a wide variety of tasks without precise measurements and computations [20]. These terms include a certain vagueness or uncertainty that information systems operated on the two-valued logic {true, false} do not understand and therefore cannot use [6]. When an entity with attribute value of ra satisfies a condition, then we expect that an entity having attribute value close to ra should also satisfy the condition, but with a slightly lower satisfaction degree. In these cases the uncertainty is not based on randomness, it cannot be presented as a precise numeric value. This type of uncertainty is called fuzziness [23]. It implies that fuzzy set and fuzzy logic theory [21] is a rational option which may offer the solution for above mentioned tasks. The fuzzy logic directly employs calculations with linguistic terms in order to solve data selection (retrieval) problems. Fuzzy logic reduces the complexity of mathematical analysis of problems in comparison with the classical approaches [16]. By the two-valued logic, two elements of the analysed universe (e.g. customers or municipalities) can be discerned only if one has and another does not have the examined property. Therefore, the number of necessary properties (attributes in queries) increases. Contrary, in fuzzy logic the complexity of the problem can be reduced by including the intensity of the examined property (e.g. query conditions). This allows us to distinguish elements with the same property, based on the intensity of matching it. The paper has two objectives. The first intent is to present advantages of fuzzy queries for researchers and practitioners, which are highly depended on data (analysts, decision makers…) and are not experts in fuzzy logic and databases. The second intent is discussing issues and solutions of flexible queries such as empty and overabundant answers, similarities, preferences and practical realisations. Section 2 discusses limitations of SQL queries. Introduction to the fuzzy logic is provided in Section 3. Section 4 illustrates fuzzy queries. Section 5 is focused on practical realisations. Section 6 is dedicated to particular problems which ca be efficiently solved by fuzzy queries. Finally, concluding remarks are drawn in Section 7.
Acta Informatica Pragensia
27
2 LIMITATIONS OF SQL The SQL has been introduced in [11]. Since then the SQL has been used in variety of relational database management systems. The applicability of the SQL may be regarded as one of the mayor reasons for the success of relational databases in the commercial world [18]. Let R be a table in a relational database. A set of tuples t (entities) is then defined as relation on Cartesian product:
R {t | t Dom( A1 ) x Dom( A2 ) x x Dom( An )}
(1)
where Ai is the entity’s attribute and Dom(Ai) is its associated domain. In traditional SQL queries the entity in a database can either fully satisfy the intent of a query Qs or not. Other options do not exist. Let A(Qs) be the set of answers to query Qs defined in the following way:
A(QS ) {t | t R (t ) 1}
(2)
where φ(t) indicates that the selected tuple t meets the query criterion. The usefulness of the SQL for queries on relational databases is indisputable. Nevertheless, limits of using dichotomous criteria might appear. The limitation is explained on the following query:
select * from [Table T] where attribute_1 > A1 and attribute_2 < A2
(3)
The result of the query is depicted in the graphical mode in Fig. 1. Values A1 and A2 delimit the space of the relevant data. Small squares in the graph show entities in a database. From the graph it is obvious that three entities are very close to meet the query criterion (3). For example, these entities could be customers and direct marketing should also consider these customers in motivation issues. The result is not surprising, because the SQL uses the two-valued (crisp) logic in querying. It means that the entity is not selected even though it is extremely close to meeting the intent of the query.
28
Hudec
Fig. 1. The result of the classical query.
If the SQL is used for solving this problem, the SQL relaxation could be in the form [4]: select * from [Table T] where ateribute_1 > A1-a1 and attribute_2 < A2+a2
(4)
where a1 and a2 are used to expand the initial condition to encompass entities that are near the boundary of a query. According to [4] this approach has two main disadvantages. Firstly, the meaning of the initial query is diluted in order to capture neighbouring entities, but these entities satisfy a query with the same degree as all entities meeting the initial query (3). It means that the difference between original and neighbouring data (additional records selected by the relaxed query condition) does not exist. Secondly, what about entities that are very close to satisfy the expanded query? Is it useful to make another expanding of a query? In this way more data from the database is selected, but not better data. If we include not only the information whether or not record meet the query condition but also the intensity of satisfying the query condition then we are able to solve issue depicted in Fig. 1.
3 FUZZY SETS AND FUZZY LOGIC IN BRIEF The concept of fuzzy sets was initially introduced in [21] where it was observed that precisely defined criteria of belonging to a set often could not be defined. In the classical set theory an element either belongs or does not belong to a set. The fuzzy set theory allows describing the intensity, uncertainty and ambiguity described by linguistic terms. The intensity is described by a membership function µ valued in the unit interval [0, 1]. Let consider a set called high unemployment rate (HUR) [8]. The HUR set can be presented by fuzzy set HUR shown in Fig. 2. User could define that the unemployment rate (UR) greater and equal than 10% fully belongs to the HUR concept, the
Acta Informatica Pragensia
29
unemployment rate smaller than 8% definitely is not HUR and unemployment rate between 8% and 10% partially belongs to the HUR concept. Naturally, when unemployment rate is closer to 10%, then it stronger belongs to the HUR concept. The fuzzy sets approach is not limited to clear sets’ boundaries.
Fig. 2. Fuzzy set for the high unemployment rate concept [8].
A query usually contains several atomic (elementary) conditions in the overall query condition. For example, query (3) contains two elementary conditions merged by the and logical operator. Let’s consider the condition: unemployment is high and migration is small. The satisfaction degree for each elementary condition takes value from the [0, 1] interval. For example the territorial unit satisfies the high unemployment with 0.8 and the second elementary condition with 0.65. We should apply aggregation functions dealing with membership degrees. For the logical and operator, these functions are called t-norms [13]. The min t-norm:
(t ) min(i (a i )),
i 1,..., n
(5)
where µi(ai) denotes the membership degree of the attribute ai to the i-th fuzzy set and μ(t) denotes satisfaction degree to the overall condition for entity t is often used because of its simplicity. Discussion about other t-norm functions can be found in e.g. [4], [5] and [10]. Interesting introduction into fuzzy logic and its practical applicability presented in a popular way can be found in e.g. [15].
4 FLEXIBLE QUERIES In queries based on fuzzy logic the entity in a database can satisfy the intent of a query QF with the particular membership degree. Let A(QF) be the set of answers to query QF defined in the following way:
A(QF ) {(t , (t )) | t R (t ) 0}
(6)
where µ(t) indicates how the selected entity t meets the query criterion. If µ(t) = 1, the entity fully meets the query criterion. Value of µ(t) in the interval (0, 1) means that the entity t partially satisfies the query criterion.
30
Hudec
In fuzzy queries, instead of numbers in query conditions (e.g. unemployment rate > 5%) and traditional comparison operators (>, =, <) we can apply fuzzy sets. The operator > (greater than) was in flexible queries improved with the fuzzy set high value (Fig. 1) to catch terms like unemployment rate is high. The operator = (equal) was fuzzified through the use of the term more or less equal to value a, where a is a real number. It can be described as a trapezoidal or triangular (a = B = C) fuzzy set about value (Fig. 3). In the same way other operators like < or between can be fuzzified.
Fig. 3. Fuzzy set About (more or less equal to).
According to the above mentioned facts, the example of a fuzzy query e.g. find appropriate areas for tourism has the following form: select municipality from [Table T] where air pollution is Small and number of sunny days is High and altitude above sea level is about 1500 meters
(7)
The meaning of a fuzzy query is obvious at the first glance because it is expressed with the linguistic terms. User is not forced to create the query criterion by numbers. Because linguistic terms have different meaning for different users and contexts, user should define parameters of these terms. For example the term high temperature has different meaning for temperatures describing activities inside the Sun or for selecting the appropriate tourism destination. Moreover, for different tourists the term high temperature has different meaning. Therefore, the parameters of membership functions should be adjusted according to user’s requirements. For the example (7) small, high and about fuzzy sets and their respective parameters are depicted in Fig. 4. The result of this query is illustrated in the Table 1.
Fig. 4. Fuzzy set for the example (7).
Acta Informatica Pragensia
Municipality M7 M5 M2 M3 M8
Pollution (P) 8.2 10.2 9.5 11.0 14.1
Number µ(P) of sunny days (S) 1.00 161 0.96 149 1.00 147 0.80 145 0.18 160
µ(S)
Altitude (A)
µ(A)
Satisfaction degree
1.0 0.9 0.7 0.5 1.0
1500 1495 1520 1510 1430
1.00 0.95 0.80 0.90 0.30
1 0.9 0.7 0.5 0.18
31
← ←
Table 1. Areas suitable for the tourism activities.
In Table 1 µ(P) denotes the membership degree to the small pollution concept, µ(S) denotes the membership degree to the high number of days with sunshine and µ(A) denotes the membership degree to the altitude about 1500 m concept. The satisfaction degree, calculated by the minimum tnorm (5) represents membership degree to the small air pollution and high number of sunny days and altitude about 1500 meters concept. If tourist cannot travel to M7, the next choice is the M5 that almost satisfies the intent of the query. Again, if it is not possible to realise tourism activities in M5, the next choice is M2 and so on. It is important to emphasize that ranking is not done by one indicator, their combination by weighted coefficients, etc. All indicators have the same importance and ranking is done according to the satisfying the concept created in the query criterion. If SQL were used, this additional valuable information would remain hidden. The aim of this paper is not to examine the technical realisation of fuzzy queries on relational databases (transformation from linguistic terms to the SQL where clause, selection all candidates and calculate their membership degrees). Concerning this topic, readers can find more in e.g. [1], [9], [19] and [22].
5 PRACTICAL REALISATIONS Issues of practical realisation are usually divided into two main areas: realisation of an application layer and intuitive design of a user interface. The former should support imprecise queries and keep a relational database structure unchanged. An illustrative example of the realisation of fuzzy query by the fuzzy Generalized Logical Condition [9] is shown in Fig. 5. In the first step users defines all required parts of queries (attributes of interest and conditions). In the next step application layer converts fuzzy queries into the SQL query in a way that all candidates (entities which satisfy query condition with degree greater than 0) are selected from a relational databases. In the reverse direction, membership degrees to each elementary condition and to the overall query are calculated and result is provided on a user interface.
32
Hudec
Fig. 5. Fuzzy query realisation.
SQL query is not so easy to use for novice users. The same holds for fuzzy queries. Although fuzzy queries have significant advantages, an interface should be as intuitive as possible to help users to formulate their queries. The PostgreSQL_f approach [17] offers the solution. Because, all the functionalities created in the PostgreSQL_f cannot be easily managed by users, the ReqFlex was created to offer the intuitive construction of flexible queries. User should have two options: (i) choose parameters of fuzzy sets according his/her preferences and (ii) a fuzzy query application calculates these parameters either from users’ previous preferences or by mining from the current database content. Concerning the (i) both above mentioned approaches ([9], [17]) offer the solution. Regarding (ii), [17] is able to offer parameters from users previous preferences whereas approach [9] can mine parameters from the current database content by adding methods discussed in [10]. Ideally, all discussed ways should be integrated.
6 BENEFITS OF FUZZY QUERIES In this section, some benefits of fuzzy queries in comparison with traditional SQL queries are examined, namely solving empty and overabundant answer, membership degrees, similarities and preferences.
6.1 TREATMENT OF EMPTY AND OVERABUNDANT ANSWER PROBLEMS The empty answer means that no entity meets a query condition. At the first glance, this may not be a problem. It is also an informative answer. But, when the user wants to know why an empty answer has appeared or how close entities to match he query condition are, user have to modify parameters in query conditions and process another, similar query. In theory this is known as "empty answer problem", that is, the problem of providing some alternative data when there is no data fitting the query [3].
Acta Informatica Pragensia
33
Let look at the query (7) from the traditional SQL perspective:
where air pollution < 10 and number of sunny days > 150 and altitude above sea level = 1500;
and imagine that the M7 does not exist in database (Table 1). As a consequence, no entity from our database is selected. Moreover, it is not simply to detect that a small relaxation of the condition like:
where air pollution < 10.3 and number of sunny days > 148 and altitude above sea level = 1495;
will retrieve one entity. Let consider the query from fuzzy logic perspective again. The solution of fuzzy query shown in Table 1, when excluding M7 (for the purpose of demonstration, M7 does not exist in a database), tells us that no municipality fully meets the query condition, but also tell us that several municipalities partially meet the query. In this case, no further adjustment and query processing is required. Fuzzy queries requires more computational time due to transformation from fuzzy to SQL conditions, selection all candidates and calculate their membership degrees. On the other hand, in case of empty answer problems, one fuzzy query could solve this issue and therefore, leads to less computational and user burden. However, empty answer could also appear in fuzzy queries [3]. In order to solve this issue relaxation of the initial query has been suggested in [3]. The relaxation is a continuous and time consuming process. When query contains several fuzzy elementary conditions, then each elementary condition should be relaxed and tested whether empty answer disappeared. The querying process is repeated until the answer is not empty or the modified query becomes semantically far from the original one [3]. The opposite situation appears when query retrieves overabundant number of records, which fully meets the query condition (if large number of entities partially satisfies the query condition, then applying threshold by α-cut is an effective and fast solution). Overabundant answer problem is discussed in [3] where predicates are intensified in order to obtain stronger restriction. Another solution is adding additional elementary condition (predicate) to the initial query. In practice, it is not an easy task for users to find the most appropriate predicate which can effectively solve this problem. To solve this issue an approach which selects a set of predicates according to their degree of semantic correlation with the initial query is suggested in [2]. In both approaches we have to avoid a deep modification of the query (semantically far from the original one). Approaches focused on solving empty and overabundant answer problems [2], [3] operates with fuzzy sets parameters defined “a priori”. We would like to mention another solution for these issues: construction of fuzzy sets parameters from the current database content [10]. In this way a user obtains
34
Hudec
suggested parameters of fuzzy sets before running a query that may reduce both issues: empty and overabundant answer.
6.2 MEMBERSHIP DEGREES TO THE QUERY CONDITION Fuzzy queries make distinction between selected entities by membership degree. In this way selected entities are ranked downwards from the best to the worst according to the membership degree, as was demonstrated in previous sections. Let’s now examine the condition: where attribute_a = v where v is a real number. There is higher jeopardy of empty answer. It could happen that no entity have the exact value of v for the examined attribute, although there might exist many entities with similar values. Traditional queries could use intervals in the following way: where attribute_a > v1 and attribute_a < v2
where v1 < v < v2 and v1 and v2 are also real numbers. If the interval is longer, more entities will be selected. But, an entity near the edge of the interval satisfies the query condition in the same way as entity near the middle of the interval. A small interval might lead to an empty answer. Therefore, the question is how to choose optimal values of v1 and v2. In case of the fuzzy query this question is irrelevant. We can create triangular fuzzy set on the examined interval. In this way entities near the edges of the interval have lower membership degrees than entities near the middle of the interval. In an extreme situation the interval can be the whole attribute’s domain. Changing values v1 and v2 will lead to different number of selected entities, but their ranking will not be changed. Applying the threshold value [19], we are able to provide only entities that significantly meet the query condition. Anyway, reasonable values of v1 and v2 should be chosen in order to avoid longer evaluation of the fuzzy query. Sharp interval and fuzzy set are depicted in Fig. 6.
Fig. 6. An interval and a fuzzy set.
Acta Informatica Pragensia
35
6.3 EVALUATION OF SIMILAR ENTITIES IN A DATABASE Linguistic term more or less equal to is suitable for finding entities in a database with the same or similar values of chosen indicators. In this example we are interested to find whether municipalities with similar values of three indicators (altitude, land area and population density) as the municipality M exist. The suggested procedure works in the following way: the user chooses one municipality (in our case municipality M) and relevant indicators. Consequently, the application finds values of selected indicators for the municipality M and creates triangular fuzzy sets (Fig. 3; B = C) for each indicator. The result is presented in Table 2 [7]. Table shows that no municipality has the same values as municipality M, but there are two municipalities (M1 and M2) which are very similar to the municipality M. Other selected municipalities are less similar. More about this issue can be found in e.g. [7]. Municipality M1 M2 M3 M4 M5 M6 M7
Altitude [m]
Area [km2]
125 125 120 116 126 132 132
15.78 15.22 18.05 18.13 13.39 14.77 18.71
Popul. Density [inhab/km2] 68.32 70.64 69.53 75.66 75.65 75.15 72.73
Similarity 0.8189 0.7477 0.4821 0.3688 02505 0.1885 0.1885
Values for the municipality M are: altitude: 123 m; land area: 16.14 km2; population density: 74 inhabitants / km2 Table 2. Similarity.
6.4 FUZZY PREFERENCES IN QUERY CONDITIONS Fuzzy preferences allow expressing that some elementary conditions are more relevant than others. For example, query for the selection of an appropriate hotel would be as follows: select hotels where price is low, distance to the beach is low and distance to the city centre is low where low distance to the city centre has lower priority. Weights for the first two indicators are equal to 1 and the weight for the third indicator is equal to 0.5. The solution is calculated using the Kleene-Dienes implication [22]:
(a* ) max( (a),1 - w)
(8)
where a is a database attribute and w [0, 1] is an importance weight of an attribute a. Applying the Kleene-Dienes implication (8) and min t-norm (5) the query satisfaction degree is calculated in the following way:
(t ) min( max ( i (ai ),1 wi )) i 1,..., n
(9)
36
Hudec
The membership degrees to the sets low price, low distance to the city centre and low distance to the beach as well as the solution are depicted in Table 3.
Hotels H1 H2 H3 H3 H4 H5
µ(Low price)
µ(Low distance to beach)
1 1 0.9 0.9 0.9 1
1 1 0.9 0.9 0.9 0.33
µ(Low distance to city centre) 1 0.9 0.7 0.1 0.5 0.3
Matching Degree µ(t) 1 0.94 0.7 0.5 0.5 0.33
Table 3. Evaluation of appropriate hotels.
More about theory of fuzzy preferences can be found in e.g. [22] and about practical issues in [14].
7 CONCLUSION The usefulness of the SQL for data selection from relational databases has been proven in many information systems. When sharp values in query criteria are required, the SQL is the optimal solution. However, when sharp constraints cannot appropriately describe the intent of a query, queries based on the fuzzy logic offer the solution. It is obvious that processing of fuzzy queries introduces an additional computation burden due to the substantial amount of calculations concerning data [12]. We need to point out that this additional amount of the calculation burden is balanced with the additional valuable information mined from a database. The main goal of flexible queries is not to select more but better data for users. The paper contributed with an overview of advantages of fuzzy queries in a legible way for data users, which are not familiar with mathematics of fuzzy logic and relational databases. Furthermore, paper discussed several issues that could be efficiently solved by fuzzy logic and fuzzy queries. To summarize, main characteristics of a fuzzy query approach are as follows:
The query condition is expressed by the linguistic terms, so the meaning of the query is understandable at the first glance and therefore, query is easily readable and modifiable; Retrieved entities are ranked downward from the best to the worst according to the satisfaction degree of the overall query condition; Fuzzy queries reduce the risk of empty answers providing some data that partially meet the query condition when no data fully meets the query condition; An efficient solution for end-users could be obtained by integration of the several fuzzy query approaches.
Acta Informatica Pragensia
37
8 REFERENCES [1]
BOSC, P., PIVERT, O. SQLf Query Functionality on Top of a Regular Relational Database Management System. In Knowledge Management in Fuzzy Databases. Physica Publisher, Heidelberg, pp. 171-190, 2000.
[2]
BOSC, P., HADJALI, A., PIVERT, O., SMITS, G. Trimming Plethoric Answers to Fuzzy Queries: An Approach Based on Predicate Correlation. In Computational Intelligence for Knowledge-Based Systems Design. Springer, Heidelberg, volume 6178, pp. 595-604, 2010.
[3]
BOSC, P. HADJALI, A., PIVERT, O. Empty versus overabundant answers to flexible relational queries. Fuzzy Sets and Systems. Vol. 159, No, 12, 2008, pp. 1450-1467.
[4]
COX, E.: Fuzzy modeling and genetic algorithms for data mining and exploration. Morgan Kaufman, San Francisco, 2005. ISBN-10: 0121942759.
[5]
DETYNIECKI M. Fundamentals on Aggregation Operators. In AGOP International Summer School on Aggregation Operators, Asturias, 2001. [cited 2013-7-7]. Available from:http://www-poleia.lip6.fr/~marcin/papers/Detynieck_AGOP_01.pdf
[6]
GALINDO J., URRUTIA A., PIATTINI M. Fuzzy databases: Modeling, Design and Implementation. Idea Group Publishing Inc., Hershey, 2006. ISBN 1-59140-324-3
[7]
HUDEC, M .Fuzzy database queries in official statistics: Perspective of using linguistic terms in query conditions. Statistical Journal of the IAOS (in press).
[8]
HUDEC, M. Exploration of applying fuzzy logic for official statistics. Conference of New Techniques and Technologies for Statistic. European Commission, Brussels, 2011. [cited 2013-5-10]. Available from: http://www.cros-portal.eu/content/ps1-poster-9-ntts-2011-s1
[9]
HUDEC, M. An Approach to Fuzzy Database Querying, Analysis and Realisation. Computer Science and Information Systems, Vol. 6, No. 2, 2009, pp. 127-140.
[10]
HUDEC, M., SUDZINA, F. Construction of fuzzy sets and applying aggregation operators for fuzzy queries. 14th International Conference on Enterprise Information Systems, Wroclaw, Poland, ICEIS, 2012, Proceedings volume 1, pp. 253-257.
[11]
CHAMBERLIN, D., BOYCE R.SEQUEL: A Structured English Query Language. In ACM SIGMOD Workshop on Data Description, Access and Control, Ann Arbor, USA, 1974, pp. 249-264.
[12]
KACPRZYK J., PASI G., VOJTÁŠ P., ZADROZNY S. Fuzzy querying: Issues and perspectives. Kybernetika, Vol. 36, No. 6, 2000, pp. 605-616.
[13]
KLIR G., YUAN B. Fuzzy sets and fuzzy logic, theory and applications. Prentice Hall, New Jersey, 1995. ISBN-10: 0131011715.
[14]
KĽÚČIK, M, HUDEC, M., JURIOVÁ, J. Final report on the case study results on usage of IT tools and procedures developed for data collection (Soft computing tools for Official Statistics). Deliverable 5.2, Blue-ETS Project, 2012. [cited 2013-03-10]. Available from: http://www.blue-ets.istat.it/index.php?id=7&tx_wfqbe_pi1 [showpage][1]=2
[15]
MCNEILL F.M., THRO E. Fuzzy logic - a practical approach. Academic Press Inc., Boston. 1994. ISBN-10: 0124859658
38
Hudec
[16]
RADOJEVIĆ, D. Interpolative realization of Boolean algebra as a consistent frame for gradation and/or fuzziness. In Forging New Frontiers: Fuzzy Pioneers II Studies in Fuzziness and Soft Computing. Springer-Verlag, Berlin / Heidelberg, pp. 295-318, 2008.
[17]
SMITS, G., PIVERT, O., GIRAULT, T. (2013). ReqFlex: Fuzzy Queries for Everyone. The VLDB Endowment, Riva del Garda, Italy, Vol. 6, No. 12. pp. 1206-1209, 2013.
[18]
URRUTIA, A., PAVESI, L. Extending the capabilities of database queries using fuzzy logic. Proceedings of the Collecter-LatAm Conference, Santiago, Chile, 2004. [cited 2011-5-10]. Available from: http://www.collecter.org/archives/2004_October/06.pdf.
[19]
WANG ,T.C., LEE, H.D., CHEN, C.M. Intelligent Queries based on Fuzzy Set Theory and SQL. Joint Conference on Information Science, Salt Lake City, USA, 2007.pp. 1426-1433.
[20]
ZADEH L.A. From computing with numbers to computing with words - from manipulation of measurements to manipulation of perceptions. International Journal of Applied Mathematics and Computer Science, Vol. 12, No. 3, 2002, pp. 307–324.
[21]
ZADEH L. A. Fuzzy sets. Information and Control, Vol. 8, 1965, pp. 338–353.
[22]
ZADROŻNY S., DE TRÉ G., DE CALUWE R. KACPRZYK J. An overview of fuzzy approaches to flexible database querying, In Fuzzy Information Processing in Databases, IGI Global, London, pp. 34-54, 2008.
[23]
ZIMMERMANN, H-J. Fuzzy Set Theory: And Its Applications. Kluwer Academic Publishers, London, 2001. ISBN-10: 0792374355.
Acta Informatica Pragensia 2(2), 2013, 39–50, DOI: 10.18267/j.aip.22 Online: aip.vse.cz
Section: Peer-reviewed papers
A Review on Macroscopic Pedestrian Flow Modelling Anna Kormanová1 1
Faculty of Management Science and Informatics, University of Žilina Univerzitná 8215/1, 010 26 Žilina, Slovak Republic
[email protected]
Abstract: This paper reviews several various approaches to macroscopic pedestrian modelling. It describes hydrodynamic models based on similarity of pedestrian flow with fluids and gases; first-order flow models that use fundamental diagrams and conservation equation; and a model similar to LWR vehicular traffic model, which allows non-classical shocks. At the end of the paper there is stated a comparison of described models, intended to find appropriate macroscopic model to eventually be a part of a hybrid model. The future work of the author is outlined. Keywords: Flow modelling, Macroscopic model, Pedestrian dynamics
40
Kormanová
1 INTRODUCTION Pedestrian simulation has wide usage in praxis these days. People tend to group in relatively small places. Very crowded places can be transportation terminals – airports, railway stations, subways, but also theatres, stadiums, etc. There comes a need to solve building trafficability and a layout of serving points, information tables, emergency exits, etc. It can not only help to save financial resources, but also human lives. However, the choice of modelling method can be difficult. We have to consider especially purpose of the simulation and needed degree of granularity. Granularity in this context means the degree of the modelling detail. From this point of view models are divided into microscopic, mesoscopic and macroscopic. Each has its pros and cons. Microscopic models model pedestrians in great detail, distinguish individuals and their interactions. Macroscopic models on the other hand model pedestrian flow as a whole and can be used in situations, where human interaction is not closely studied. Mesoscopic modeling usually consist of simplification of dynamics with less data demand. It combines microscopic aspects (they can deal with individual pedestrians) and macroscopic aspects, such as flow dynamics. Therefore very interesting and also effective alternative seems to be the creation of a hybrid simulation model that would allow to flexibly define and modify the granularity for different areas of modeled scene. The simulation tool PedSim for pedestrian movement [11][12] is being developed at the Department of Transportation Networks at Faculty of Management Science and Informatics for several years. The goal is to develop a complex, generic, agent based 3D tool for modeling pedestrians’ movement. The utilization of the model can be found in evacuation and design evaluation scenarios of airports, transportation terminals etc. This tool utilizes microscopic and mesoscopic models of pedestrian movement so far. Our goal is to add macroscopic model as well, and create a hybrid simulation model. Macroscopic modelling will be used in areas, which are not statistically important, or where human interaction observation is not necessary. Microscopic and macroscopic display of PedSim is depicted on figure 1.
Fig. 1. Left – microscopic movement in PedSim. Right – macroscopic movement in PedSim. Flow is moving through edges of macroscopic graph. No individuals are distinguished, we can only see value of crowd density in the edge determined by corresponding color (color palette from blue to red, red is the highest density).
This paper provides a review of several macroscopic flow models. Their advantage is, that they do not require as much computational power as microscopic methods. At the end of the article there is a
Acta Informatica Pragensia
41
comparison of described models. This provides an information, which one of models is the most suitable for our purpose of creating a hybrid simulation model for PedSim simulation tool.
2 HYDRODYNAMIC MODELS Hydrodynamic models [8] use analogy with fluids or gases to describe density and speed changes in time. These models are based on a fact, that pedestrian flows and their mesoscopic and macroscopic characteristics are driven by physical laws similar to those valid for dynamics of compressed fluid or gases. This analogy was studied by number of scientists, who derived some hydrodynamic models out of it. Some of these models, similar to physical ones, are called gas-kinetic models (Boltzmann-like approach, is used mostly for traffic modelling). They describe pedestrian dynamics using distribution function of speed. Other, macroscopic models, use Navier-Stokes type of equations or equations of pedestrian conservation. Compared to traffic hydrodynamic models, the number of pedestrian models is low, since the complexity of human behavior is much larger than vehicle one.
2.1 HELBING’S FLUID-DYNAMIC MODEL Dirk Helbing [6] presented his fluid-dynamic model for the collective movement of pedestrians in 1992. It is based on Boltzmann-like gas-kinetic model. The first one to apply this kind of model on pedestrian crowds was Henderson [7]. However, he assumed a conservation of momentum and energy, what was quite unrealistic. Pedestrian here belongs into type µ of motion, if he wants to walk approximately with the velocity . , , , describes a number of pedestrians of type µ, who are present within an Density area A=A( ) around a place , with intended velocity of approximately approximately
, while the actual velocity is
. It is defined as: ,
,
,
≡
,
,
(1)
,
∶
∙
is a neighborhood around place , which represents all accessible (public) places . ∶
Similarly,
is a neighborhood of
∗
∈
∗
:‖
,
(2)
‖
, with a volume V = V
.
Next the continuity equations have been established: ≡
∶
.
(3)
42
Kormanová
These can be interpreted as gas-kinetic equations. The force
can often be neglected. over time is influenced by four facts:
The change of density
denotes the average mass of type µ pedestrians.
The tendency of pedestrians to reach their intended velocity . Interactions among pedestrians. Changes of pedestrian types when turning right or left or when at a crossing. The density gain or loss per time unit.
By multiplication of (3) by
or
,
,
/2, and integration over
, we obtain
following equations: 〈
〉
〉〈
〈
〉
,
,
〈
1
〉
〈
1
〉
1
(4)
for the mass density, 〈
〉〈
,
〉
〉〈
〈
,
,
1
〉
〈
〈
,
〈
,
〉
〉
〈
〈 ,
〉
,
〈
〉
〈
,
〉 ,
〉 (5)
1
〉〈 〉
〈
〉〈
∗
〉
,
,
〉
〈
,
,
for the momentum density, and 〈
〉
,
〈
〉〈
,
,
〈
〉
1
〈
,
〉 〈
,
〉〈 〉 〈
〈
,
〉
〉
,
〈
,
〉
∗
1
,
〉
2
〈
, ,
〉
〈
1
〉〈 〈
〉 ,
,
,
2
2 〈
,
,
〉
density 〈
,
〉
〈
〉〈
,
〉
〈
〉
,
〉〈
〉
,
〉
2
(at place
〈
,
(6)
and time t) is 〈 〉 〈 for the mass density, the mean momentum density 〈 〉〈 ,
〈
for the energy density. Here, the density of pedestrians of type µ is 〈 variance of their velocity components
,
2
,
〉, their velocity 〈 〉, and the ,
〉. 〈
〉∶
〈
〉 stands
〉〈 〉, and the mean energy
〉.
Equations (4), (5) and (6) represent the known hydrodynamic equations. Within there is also an interaction between pedestrians of type µ and v included. Detailed explanation of equations is described in [6].
Acta Informatica Pragensia
43
2.2 HUGHES’S MODEL Roger L. Hughes [9][10] proposed a model resulting from three hypotheses: Hypothesis 1. The speed at which pedestrians walk is determined solely by the density of surrounding pedestrians, the behavioral characteristics of the pedestrians, and the ground on which they walk. The velocity components (u,v) of a pedestrian are given by ,
where
and
(7)
are the direction cosines of the motion and f(ρ) is a speed of pedestrian as a function
of density. Hypothesis 2. Pedestrians have a common sense of the task (called potential) that they face to reach their common destination, such that any two individuals at different locations having the same potential would see no advantage to exchanging places. Thus the direction of a motion of the pedestrian is perpendicular to his potential, i.e. the direction cosines are /
/
/
/
/
/
,
(8)
where ϕ is potential. This hypothesis is applicable for pedestrian flows, because they can visually access the situation. Hypothesis 3. Pedestrians seek to minimize their estimated travel time but temper this behavior to avoid extreme densities. This tempering is assumed to be separable, such that pedestrians minimize the product of their travel time as a function of density. The distance between pedestrians’ potentials must be proportional to pedestrian speed, thus 1 /
(9)
/
with potential scaled appropriately. Equations (7)-(9) with the usual continuity equation are combined into equations for pedestrian flow 0
(10)
and 1 /
where factor
/
stands for the tempering behaviour at high densities.
(11)
44
Kormanová
This formulation can easily be extended to multiple pedestrian types crows. approximated by:
and
can be
, , (12) ,
and 1, (13)
,
where typically A = 1.4 ms-1,
= 0.8 ms-1,
= 3.0 ms-1, and
= 5.0 ms-1.
3 FIRST-ORDER FLOW MODELS The first-order pedestrian flow theory [1][4][5] is based on combination of a fundamental diagram and the conservation of pedestrians. Fundamental diagram represents flow-density relation.
3.1 DAAMEN-HOOGENDOORN-BOVY The fundamental diagrams here [4][5] are derived from cumulative flow plots – functions N(x,t) that represent counted number of pedestrians that pass a cross-section x from an arbitrary starting point. The flow q in a cross-section x in time period t1 to t2 equals: ,
,
,
(14)
The density at point x in time t is derived from fundamental relation between speed u, density k and flow q: ,
, ,
(15)
In [5] the three-dimensional cell C with dimensions X×Y×T is considered. For every trajectory passing the cell, the three quantities are determined: 1. The travel time TTi – duration of pedestrian i in the cell. 0 < TTi ≤ T 2. The travelled distance Di in the x-direction – the distance pedestrian i walks in x-direction while staying in the cell. 0 < Di ≤ X 3. The travelled distance Zi in the y-direction – the distance pedestrian i walks in y-direction while staying in the cell. 0 < Zi ≤ X From these quantities, the following equations are generalized:
Acta Informatica Pragensia
∑∈
∑∈
45
(16)
(17)
∑∈
where k is density in generalized form in P/m2 and q is definition of flow in x and y direction (in P/ms). If TTi = T, then:
,
∑∈
(18)
where n is the number of pedestrians in area X×Y at time t. The same holds for flow definitions. Pedestrian speeds in x and y directions can easily be determined: ∑∈ ∑∈
∑∈ ∑∈
(19)
Based on the data of narrow bottleneck experiment, the fundamental graph has been constructed.
Fig. 2. Fundamental diagram for pedestrian traffic for bottleneck experiment. [5]
3.2 BRUNO ET. AL. Bruno et. al. [1] proposed physical framework based on several features of pedestrian behaviour: (f1) pedestrians are active agents, i.e. in normal (non-panic) situations, their shared objective is to walk with the maximum velocity towards a target (doors, exits, etc.), while avoiding obstacles and crowded zones. They actively determine their walking direction and velocity and are not passively subjected to the laws of inertia;
46
Kormanová
(f2) pedestrians are intelligent agents, so their mind evaluates, selects, makes synthesis of its perceptions according to various psychological criteria. (f3) Pedestrians under normal conditions do not perceive the real world locally in space, but have the ability to see up to a given extent around them. The area required for perception, evaluation and reaction is called sensory region and is notated as Rs; (f4) pedestrians react after a reflex time delay τ1 from the perception time, which is needed for reaction to the actual conditions, while a volitional time delay τ2 is required to adopt walking strategies and to scan visual field. τ1 ≪ τ2 ≪ T, T is the reference macroscopic time scale required to cross the walking area at maximum walking speed vM; (f5) from the previous it comes, that pedestrians in a given position at a given time react to perceived conditions in front of them at a delayed time, i.e. in a non-local way in both space and time. (f6) Pedestrians are anisotropic agents, they distinguish between ahead and behind. In normal situations they are essentially sensitive to what happens in a visual field focused on their direction of movement; (f7) walking pedestrians adapt their sensory region’s depth and width to their travel purpose and walking speed. Features f1-f2 are about intelligent behavior, features f3-f5 about non-local behavior, and features f6f7 about anisotropic behavior. 3.2.1
PHYSICAL MODELLING FRAMEWORK
The proposed model is expressed by a mass conservation equation for a control mass M in time t: (20)
0
To describe a system dynamics, the velocity field of the moving mass should be a state variable or be a priori known. First-order models relate the velocity field to the mass itself. The velocity field v in the point x Ω at time t: ,
,
(21)
,
where is the magnitude of v (i.e. the walking speed) and ev is a unit vector of walking direction. The walking direction is modelled as the superposition of two contributors: - the desired direction identified by the unit vector ed; - the interaction direction – the direction, the pedestrian would follow to avoid crowded areas. It is identified by the unit vector ei, which, unlike ed, evolves in time. The desired direction is a priori determined. The interaction direction is instead obtained through a perception process. The resulting walking direction ev is:
|
1 1
|
,
(22)
Acta Informatica Pragensia
47
Where θ [0, 1] is a dimensionless parameter – weight of pedestrian’s attitude to prioritize the walking area layout or the crowd conditions. The walking speed
is determined by: 1
where is the free speed, different travel purposes,
1
exp
1
,
(23)
is the jam density, γ is an exponent, that makes the relation sensitive to , is the perceived density.
The sensory region , , , is modelled as a portion of ball centered in x with radius δ and angular span 2 . In the 1D case the definition is simple: ,
,
⊆ 0,
,
(24)
where the interval Ω = [0, L] is the 1D domain. It is assumed that the depth δ depends on the walking speed only, while the width 2 is a constant. The radius δ is expressed as a function of the local delayed walking speed. ,
(25)
,
The constitutive law linking δ to the walking speed is as follows: ∆
(26)
where ∆ and δ0 are understood as the macroscopic counterparts of d( is constant equaling a given fraction of the reference length L.
) and δ0 . It is assumed that δ0
The visual field width varies in range [0, 90°]. The crowd density and the interaction direction (in 2D setting) come from an intelligent evaluation process.
4 COLOMBO-ROSINI MODEL A macroscopic model presented by [2][3] can be used to describe real situations, such as crowd evacuating a corridor. It is a one-dimensional model built on a Couchy problem for the nonlinear hyperbolic conservation law
0,
∈
,
0,
(27)
which reminds of the Lighthill-Whitham-Richards (LWR) model of vehicular traffic. Furthermore, it is able to reproduce the Braess’ paradox for pedestrians and was experimentally confirmed by an empirical study. When the density grows above the maximum value, it is assumed, that unlike vehicles, pedestrians can still move but feel overcompressed. As described in [2], this allows to define a concept of solution to the above conservation law in which non-classical shocks are admitted.
48
Kormanová
5 COMPARISON OF MACROSCOPIC MODELS Described models were compared from several points of view, as stated in table 1. They are all based on physical laws. Helbing’s model is based on fluid-dynamics. As one of a few it is applicable also on panic situations, what allows us to model evacuations. Different types of pedestrians are distinguished here. This model describes developments of walking lanes, propagation of waves and behavior on a dance floor. It has wide application possibilities. Only problem can arise in places with very low densities. The greatest disadvantage, however, is the fact, that the model has not been validated. Hugh’s model is based on well-defined hypotheses. It describes time-dependent waves and Braess’ paradox. This model also has problem with low densities. It has been properly validated, but cannot be used in panic situations. Daamen’s model is based on flow-density diagram. It has been validated only by laboratory experiments. It is applicable on pedestrian traffic, but not on panic situations. No apparent problems have been described. Bruno et. al. designed model based on physical model and crowd dynamics. It is the only model which recognizes individual pedestrians. It can be used for pedestrian traffic modelling, but does not support panic situations. The diffusive effect is explained. Colombo-Rosini model is based on LWR model. It described phenomena of shock waves and Braess’ paradox. Its advantage is applicability to panic situations and evacuations. Since our simulation tool PedSim focuses on evacuation and evaluation scenarios mostly at large transportation terminals, a good choice seems to be the Colombo-Rosini model, which allows panic situations. As the only model from described ones, this one is focused on evacuations. Unlike Helbing’s model, which also allows panic situations, Colombo-Rosini model has been properly validated.
Acta Informatica Pragensia
49
DAAMEN et. al.
BRUNO et. al.
COLOMBOROSINI
Fluid-dynamics
Well-defined observations (hypotheses)
Flow-density diagram
Physical model and crowd dynamics
Altered LWR model
Possible problems
Low densities
Low densities
Not described
Applicable to panic situations
Yes
No
No
No
Yes
Recognizes individuals
Only groups of different types
No
No
Yes
No
Value of variables
Physical meaning
Physical meaning
Physical meaning
Physical meaning
Physical meaning
Parameters calibration
By inspection
Validated
No
HELBING
HUGH
Model based on
Phenomena explained
Possible applications
Typical values By inspection By inspection Yes
Development of Time-dependent walking lanes, propagation of waves, waves, Braess’ paradox behavior on a dance floor Town- and trafficplanning
Describes only Not described one dimensional movements
Crowd motion
By inspection
Laboratory experiments
Yes
Yes
None described
Diffusive effect
Braess’ paradox, shock waves
Pedestrian traffic
Pedestrian traffic
Evacuation
Table 1. Comparison of macroscopic models.
6 CONCLUSION Macroscopic models save computation time significantly. They are convenient to use when pedestrian to pedestrian interaction is not needed to be closely studied. At the Department of Transportation Networks of Faculty of Management Science and Informatics of University of Žilina we are developing a simulation tool PedSim [11, 12] for simulating pedestrian movement. Our goal is to create hybrid model – combination of microscopic and macroscopic model. Microscopic model will be used in complicated areas or areas of interest, and macroscopic in the rest. From the comparison of several flow models we can see, that the most suitable one is Colombo-Rosini model, which is applicable to panic situations and evacuations. The future work will be focused on implementation and calibration of selected macroscopic model into PedSim simulation tool. Finally, the transitions and synchronization between microscopic and macroscopic models will be solved and hybrid model will be created.
50
Kormanová
7 REFERENCES [1]
BRUNO, L., TOSIN, A., TRICERRI, P., VENUTI, F. Non-local first-order modelling of crowd dynamics: A multidimensional framework with applications, Applied Mathematical Modelling. vol. 35, no. 1, pp. 426-445, 2011. Available from: http://arxiv.org/pdf/1003.3891v2.pdf
[2]
COLOMBO, R. M., GOATIN, P., ROSINI, M. D. A macroscopic model for pedestrian flows in panic situations, in GAKUTO International Series Mathematical Sciences and Applications. 2010, pp. 255-272. Available from: http://hal.archivesouvertes.fr/docs/00/53/48/88/PDF/43-rosini.pdf
[3]
COLOMBO, R. M., ROSINI, M. D. Pedestrian flows and non-classical shocks. Mathematical Methods in the Applied Sciences, vol. 28, no. 13, pp. 1553-1567, 2005. Available from: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.105.6594&rep=rep1&type=pdf
[4]
DAAMEN, W. Modelling Passenger Flows in Public Transport Facilities, dissertation thesis, 2004. Available from: http://repository.tudelft.nl/assets/uuid:e65fb66c-1e55-4e63-8c495199d40f60e1/trail_daamen_20040909.pdf
[5]
DAAMEN, W., HOOGENDOORN, S. P., BOVY, P. H. L. First-order pedestrian traffic flow theory, Transportation Research Record: Journal of the Transportation Research Board, vol. 1934, no. 1, pp. 43-52, 2005. Available from: http://www.researchgate.net/publication/228531222_Firstorder_pedestrian_traffic_flow_theory/file/79e41509d5b3c90d97.pdf
[6]
HELBING, D. A Fluid-Dynamic Model for the Movement of Pedestrians, in Complex Systems 6, 1992, pp. 391-415. Available from: http://www.complex-systems.com/pdf/06-5-1.pdf
[7]
HENDERSON, L. F. On the fluid mechanics of human crowd motion, Transportation research, vol. 8, pp. 509-515, 1974.
[8]
HOOGENDOORN, S. P., BOVY, P. H. L. Normative pedestrian behaviour theory and modeling, in Proceedings of the 15th International Symposium on Transportation and Traffic Theory, 2002.
[9]
HUGHES, R. L. The Flow of Human Crowds, Annual review of fluid mechanics, vol. 35, pp. 169-182, 2003. Available from: http://www.computingscience.nl/docs/vakken/mcrs/papers/15.pdf
[10]
HUGHES, R. L. The flow of large crowds of pedestrians, Mathematics and Computers in Simulation, vol. 53, pp. 367-370, 2000. Available from: http://www.sciencedirect.com/science/article/pii/S0378475400002287#
[11]
KORMANOVÁ, A. Combining Social Forces and Cellular Automata Models in Pedestrians’ Movement Simulation, Journal of Information, Control and Management Systems, vol. 10, no. 1, pp. 61-70, 2012.
[12]
VARGA, M. Application of the ABAsim architecture in the pedestrian movement modeling tool, Journal of Information, Control and Management Systems, vol. 10, no. 1, pp. 125-134, 2012.
Acta Informatica Pragensia 2(2), 2013, 51–58, DOI: 10.18267/j.aip.23 Online: aip.vse.cz
Section: Peer-reviewed papers
Subgraph Colouring Technique for Computer with Data Driven Computation Model Liberios Vokorokos1, Branislav Madoš1, Norbert Ádám1, Marek Čajkovský1 1
Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice, Letná 9, 042 00 Košice, Slovak Republic {liberios.vokorokos, branislav.mados, norbert.adam, marek.cajkovsky}@tuke.sk
Abstract: Paper deals with the data driven computation control paradigm, which is alternative to the mainstream control flow model of program execution control. In the second part of the paper we are introducing computer architecture that is proposed at the Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice, according to the data driven computation control model with use of tile computing principles. In the final part of the paper, subgraph colouring technique that is unique characteristic of proposed computer architecture is described. Keywords: Data flow, Data driven, Data flow graph, Subgraph mapping, Subgraph colouring
52
Vokorokos et al.
1 INTRODUCTION Research oriented in multiple directions in the field of high performance parallel computer architectures brought in 60’s and 70’s of the last century the popularity to the class of parallel computers, that are based on the data driven control of program execution, generally referred as the data flow architectures. Instead of instructions controlled flow of program execution with use of program counter concept, the flood of operands is used to control the program execution process. Program for the data flow computer is prepared in the form of directed graph G = (V, E) and its representation in machine readable form is called Data Flow Graph (DFG). Instructions, called actors, are represented as the vertexes vi ∈ V in the DFG. Edges ei ∈ E are interconnecting source and destination actors in the DFG and are representing paths in which operands are flowing through the DFG in time of program execution. Tokens are representing presence of operands on the edges. Edge is not only the interconnection between actors but also determines which actor is source of operands and which is the consumer and assures proper execution of the DFG. Load of the DFG into the operating memory of data flow computer is called data flow graph mapping and instructions are mapped into the memory to the activation frames. Instructions that are placed in operating memory are fired immediately after they became executable (instruction is executable when all operands that are needed for instructions execution are present). Instruction is activated when it is fired and all hardware resources that are needed for instructions execution are available. There are pure data flow architectures, which are divided into two groups called static and dynamic data flow computer architectures, according to the model of execution of DFG. Static model allows only one token placed on the edge; dynamic model allows more than one token placed on the edge at the same time. Each token has its own tag in dynamic model, to identify its position in the token flood. Tokens must differ in the tag, when are placed on the same edge and there is process of searching of the tokens with the same tag which is called matching. Unlike dynamic model, there is disadvantage of the static dataflow computer architecture in impossibility to use dynamic forms of parallelism, including loops and recursion. Dynamic data flow model allows dynamic forms of parallelism, both loop and recursive, that appear in the time of program execution [1, 2, 3, 4, 5, 6, 7]. Besides of pure data flow architectures there is possibility to define also category of hybrid data flow architectures. Those can be seen as the computer architectures which are combining both control flow and data flow control mechanisms in the program execution control.
2 PROPOSED ARCHITECTURE Architecture of computer-on-the-chip with static data driven computation model, proposed as the part of the research of dataflow computer architectures at the Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice, is developed according to the principles of tile computing. It is possible to describe this approach as the effort to build highly scalable architectures of computers with use of the basic building blocks that are standardized and are reused in architecture many times in the manner that allows easy scalability with little or no change of used components.
Acta Informatica Pragensia
53
Proposed architecture consists of Processing Elements (PE), which are forming Processing Array (PA). PA consists of n × n bi-directional layout of PEs, where n is the number of PEs placed on the edge of PA. Besides of all each PE comprises of the operating memory in the form of Activation Frames Store (AFS), Arithmetic and Logic Unit, (ALU) and Control Unit (CU). At the edges of PA are Input/Output Elements (IO) localised and each of IO is close connected to the neighbouring PE (Fig. 1.). Number of IOs is 4n, where n is the number of PEs placed on the edge of PA. There is ratio (R) between the number of PEs and IOs and this ratio can be determined by the formula (1). R = n2 / 4n
(1)
IO element is used for creation of communication connection with the components of the computer that are localised outside of the chip, or in multichip configuration of the computer IOs are forming bridges that are interconnecting PAs of neighbouring chips. Elements of the architecture, represented by PEs and IOs are interconnected via communication networks. One of networks is formed by local communication channels, interconnecting pairs of neighbouring elements and allows concurrent communication of elements pairs. Another network is forming global communication network and is interconnecting all elements in the form of the bus. Global communication network do not allow concurrent communication of element pairs and is dedicated to the data flow program mapping. Prototype of the computer built according to the designed architecture consists of 64 PEs distributed across the chip in 8 x 8 bi-dimensional layout, with 32 IOs located at the edges of the PA. Field Programmable Gate Array (FPGA) technology is used. As the hardware of the computer prototype Xilinx Spartan 3AN development board is used and as the software development tool Xilinx ISE Design Suite was used. Detailed information about architecture and computer prototype can be found in [3, 8, 9, 10].
Fig. 1. Processing array of the computer consists of 64 PEs and 32 IOs.
54
Vokorokos et al.
2.1 ACTIVATION FRAME Instructions are represented via 144-bit vectors that are mapped in the form of activation frames into the activation frames stores of respective processing elements in time of data flow graph mapping, when computer and memory are in Load mode. Each instruction vector consists of components according to the Fig. 2.
Fig. 2. Instruction represented by 144 bit vector stored in activation frame. Where INIT is 1bit long indicator of instruction executability OPCODE is 7bit long operation code of instruction PA is 1bit long indicator of operand A demand for instruction execution RA is 1bit long indicator of operand A availability PB is 1bit long indicator of operand B demand for instruction execution RB is 1bit long indicator of operand B availability CA is 1 bit long indicator of immediate operand A CB is 1 bit long indicator of immediate operand B AB is1bit long indicator of instructions target operand RES is 1 bit reserved COLOR is 32 bit long COLOR tag of subgraph OPA is 32 bit long operand A OPB is 32 bit long operand B ADR is 32 bit long target address of the instruction
Acta Informatica Pragensia
55
Architecture brings concept of instruction initialization. Initialization is the basic prerequisite of instructions execution. It means that it is not possible to fire and execute instruction, which is not initialized. Initialization can occur in the time of data flow program mapping, when instructions are mapped into the activation frame store in initialized form, or can occur in time of program execution, when instructions are initialized with use of special instructions, that are part of the instructions set architecture. Instruction is initialized when INIT bit of instructions vector is set to 1. Another process is called deinitialization of the instruction. It can occur in time of data flow program mapping, when instruction is mapped into memory as deinitialized, or it is possible to deinitialize instruction in time of program execution via special instructions, that are part of the instructions set architecture. Another form of this process occurs when instruction is executed, because immediately after execution, instruction is deinitialized. There is possibility to use multiple cycles of de/initialization process in time of program execution and this is unique characteristic of this data flow architecture.
3 DATA FLOW SUBGRAPH COLOURING Program of the data flow computer is prepared in the form of directed graph. It is possible to partition the data flow graph into the subgraphs and this process is iterative. Let us denote subgraphs with their respective colours. In proposed architecture, each subgraph is denoted with 32-bit COLOR tag, which is part of instruction vector (bits 127:96). Each instruction stored in the memory is tagged with colour of the subgraph as it is shown in the example at Fig. 3., where “yellow” subgraph has COLOR tag (00000000 00000000 00000000 00000100)2 (leading zeros of 32-bit COLOR tag vector are omitted in the Fig. 3 in favour of more readable notation), “green” subgraph has COLOR tag (00000000 00000000 00000000 00000110)2 and “white” subgraph has COLOR tag (00000000 00000000 00000000 00000111)2.
Fig. 3. Example of data flow graph partitioned into 3 subgraphs and tagged with different COLOR tags.
Proposed architecture brings concept of de/initialization operations not only for the entire data flow graph via IG (Initialize Graph) and KG (Kill Graph) instructions that are part of the instructions set architecture, but also of de/initialization of subgraph operations via ISG (Initialize SubGraph), ISGO (Initialize SubGraph with Operands) and KSG (Kill SubGraph) instructions.
56
Vokorokos et al.
In the basic concept of the COLOR tag usage, all instructions mentioned above has operand, which is 32-bit long and represents COLOR tag of subgraph on which instruction is applied. It is possible for example to initialize each of subgraphs with use of instruction IG (00000000 00000000 00000000 00000100)2, IG (00000000 00000000 00000000 00000110)2 or IG (00000000 00000000 00000000 00000111)2. Because of specific construction of operating memory of the computer, operation is applied in parallel on all activation frames stored in memory that are tagged with respective COLOR tag in one machine cycle. However, this straightforward approach has its shortcomings. If we are considering “green” and “yellow” subgraphs as two partitions of one subgraph which is needed to be initialized, it is not possible to perform this operation in other way but to use sequentially two IG instructions with (00000000 00000000 00000000 00000110)2 and (00000000 00000000 00000000 00000111)2 operands respectively. This means not only use of more instructions of the program, but also more machine cycles are needed. That is why more complex approach was chosen. Instructions which are using COLOR tag are not unary, but have two operands. First is COLOR tag which is 32-bit vector, as mentioned above, second operand is 7-bit vector that represents the number of bits of COLOR tag, which are compared, when it is evaluated, if instruction on which de/initialization operation is applied is part of target subgraph. Bits are counted from MSB of COLOR tag vector. It is meaningless to compare 0 bits of COLOR tag vector because in that case operation is applied on all activation frames stored in memory (This is performed by IG and KSG operations respectively) and there is no possibility to compare more than 32 bits of COLOR tag vector. That is why value of the second operand is restricted to the range of <1:32> in decimal. Version of instructions with two operands is powerful, because it can target more than one subgraph at once and that means operation of de/initialization can be performed on more subgraphs at the same time, in one machine cycle. In the example mentioned above, if IG operation with operands (00000000 00000000 00000000 00000110)2, (0111111)2 or (00000000 00000000 00000000 00000111)2, (0111111)2 is applied, subgraphs with 31 MSB bits set to the value (00000000 00000000 00000000 0000011)2 are targeted. Because only one bit left, there are two possible subgraphs, which can be targeted, with 1 LSB bit set to 0 and 1 respectively. In the example on Fig. 3 those subgraphs are „green“ and „white“. If the first operand of instruction is set to the value (00000000 00000000 00000000 000001xx)2 where xx is the 2 bit vector of any value and second operand is set to the value (0111110)2, there are 30 MSB bits compared and vector consisting of 2 LSB bits left uncompared. It means 4 subgraphs with 2 LSB bits set to the values (00)2, (01)2, (10)2, (11)2 are targeted. In the example shown in Fig. 3, all 3 subgraphs meet the condition and are targeted with this instruction. In the example shown on Fig. 3, there is no possibility to target “yellow” and “white” subgraphs at once without targeting “green” subgraph.
4 CONCLUSION Paper briefly introduced the data flow paradigm of computation control as the alternative to the mainstream control flow paradigm and described main features of the computer architecture with data flow computation control that is proposed at the Department of Computers and Informatics, Faculty of
Acta Informatica Pragensia
57
Electrical Engineering and Informatics, Technical University of Košice. Special attention was paid to the description of the data flow subgraph colouring, which is the specific and unique feature of proposed architecture, and is not implemented in other architectures. Subgraph colouring allows with use of instructions that are part of instructions set architecture initialization and deinitialization of other instructions not only in time of program load but also in time of the program execution. There is possibility to use multiple cycles of de/initialization process in time of program execution and this feature brings to the architecture certain features of control flow model. Main advantage of this approach is that this feature makes it possible to preserve construction simplicity of the static data flow architectures and at the same time allows the implementation of language constructs such as the recursion and loops; features that are achieved in dynamic data flow architectures but only for the price of greater complexity of the design. Another advantage is the opportunity to end the execution of whole block of instructions in any time of its execution, in case there is condition fulfilled, that execution of this instructions block is unnecessary and there is possibility to deinitialize all instructions of the block in one machine cycle. This, together with other features of architecture, allows increase in the effectiveness of the program code execution without significant distortion of the benefits of data flow control of the program execution. ACKNOWLEDGEMENT This work was supported by the Slovak Research and Development Agency under the contract No. APVV-0008-10. Project is being solved at the Department of Computers and Informatics, Faculty of Electrical Engineering and Informatics, Technical University of Košice.
5 REFERENCES [1]
ARVIND, A., CULLER, D.E.: The tagged token dataflow architecture (preliminary version), Tech. Rep. Laboratory for Computer Science, MIT, Cambridge, MA, 1983.
[2]
DENNIS, J.,B., MISUNAS, R.P.: A Preliminary Architecture for a Basic Data Flow Processor“, Proceedings of the 2nd Annual Symposium on Computer architectures., 1974.
[3]
MADOŠ, B., BALÁŽ, A.: Data Flow Graph Mapping Techniques of Computer Architecture with Data Driven Computation Model, SAMI 2011 Proceedings of 9th IEEE International Symposium on Applied Machine Intelligence and Informatics, Smolenice, Slovakia, 27. - 29. january 2011, pp. 355 - 359, IEEE Catalog Number: CFP1108E-CDR, ISBN 978-1-42447428-8.
[4]
SHIMADA, T., HIRAKI, K., NISHIDA, K, SEKIGUGHI, S,: Evaluation of a prototype Dataflow Processor of the SIGMA-1 for Scientific Computations", In: Proc. 13th Annual Symposium On Computer Architecture, 1986, pp. 226-234.
[5]
VEEN, A.: Dataflow Machine Architecture, ACM Computing Surveys, December 1986, pp. 365-396.
[6]
VLASOV, V.V., KRAYNIKOV, A.V., KURDIKOV, B.A.: A Data Flow Computer System, In: Izvestiya LETI (Proceedings of Leningrad Electrotechn.Inst.), St.Petersburg, Vol. 436, 1991, pp. 3-7.
58
Vokorokos et al.
[7]
VOKOROKOS, L.: Data Flow Computer Principles (in Slovak), Copycenter, spol. s.r.o., Košice, Slovakia, 2002. ISBN 80-7099-824-5.
[8]
VOKOROKOS, L., MADOŠ, B., ÁDÁM, N., BALÁŽ, A.: Priority of Instructions Execution and DFG Mapping Techniques of Computer Architecture with Data Driven Computation Model, SISY 2011: 9th IEEE International Symposium on Inteligent Systems and Informatics: 8. - 10.9.2011: Subotica, Serbia P. 483-488 Budapest : Óbuda University, 2011.
[9]
VOKOROKOS, L., MADOŠ, B., BALÁŽ, A., ÁDÁM, N.: Architecture of multi-core computer with data driven computation model, Acta Electrotechnica et Informatica, december 2010, Košice, Slovakia, pp. 20-23, ISSN 1335-8243.
[10]
VOKOROKOS, L., MADOŠ, B., BALÁŽ, A., ÁDÁM, N.: Innovative Operating Memory Architecture for Computers using the Data Driven computation model, In: Acta Polytechnica Hungarica: Special Issue on Celebration of 60th Anniversary of the Foundation of Technical University of Košice, Vol. 10, No. 5 (2013), p. 1 - 17, 2013 , ISSN 1785-8860.
Acta Informatica Pragensia 2(2), 2013, 59–67, DOI: 10.18267/j.aip.24 Online: aip.vse.cz
Section: Peer-reviewed papers
Framework for utilizing computational devices within simulation Miroslav Mintál1 1
Department of Transportation Networks, Faculty of Management Science and Informatics, University of Žilina, Univerzitná 8215/1, 010 26 Žilina, Slovak Republic
[email protected]
Abstract: Nowadays there exist several frameworks to utilize a computation power of graphics cards and other computational devices such as FPGA, ARM and multicore processors. The best known are either low-level and need a lot of controlling code or are bounded only to special graphic cards. Furthermore there exist more specialized frameworks, mainly aimed to the mathematic field. Described framework is adjusted to use in a multi-agent simulations. Here it provides an option to accelerate computations when preparing simulation and mainly to accelerate a computation of simulation itself. Keywords: GPGPU, GPU framework, OpenCL, Simulation
60
Mintál
1 INTRODUCTION Different simulation studies are being developed worldwide every day. These simulations often contains complicated models, which computation often last for a long time. In several cases is the computation slower than the modeled system. It happens especially if we want to model larger systems. A solution may be to buy a new more powerful hardware or to rent a computation power. However these restrictions can be conquered also with utilization of current hardware. A majority of programs is serial and that is why they cannot fully utilize current multi-core processors. After adjustment, these programs could fully utilize the processor. In a computer occurs more powerful computational device when used properly. This device is a graphic card. To fully use this hardware there exist several frameworks and libraries. Some of them will be described in chapter two. This paper will deal with a designed framework that is able to utilize mentioned hardware with focus placed on the utilization in simulation. Designed framework is integrated into multi-agent simulation architecture ABAsim [1]. This is utilized both on education purposes as well as commercially in the traffic simulations. Designed framework will be described in third chapter. Chapter four defines a practical use of the framework. Last chapter will contain summary and conclusion.
2 EXISTING FRAMEWORKS Recently there did not exist any frameworks for simple use of computational power of graphic cards. The only option was to convert data into textures and work with them in a complicated way. To utilize a computation power of graphic cards and other computation devices there exist nowadays several frameworks. There is a small amount of basic frameworks. These will be described in subsection 2.1. Then there exist frameworks based on basic frameworks that simplify utilizing of this performance such as automation of some steps, simplifying function calls or implementation of some algorithms. In subsection 2.2 will be some of these frameworks presented.
2.1 LOW-LEVEL FRAMEWORKS Among basic frameworks that enable to utilize computational devices belong these: CUDA [2] – is mostly used, especially for good publicity and amount of provided libraries. The disadvantage is that it only works with NVidia graphic cards. OpenCL [3] – its main advantage is that it can use computational power of almost every recent graphics card, processors and FPGA. Because of the wide spectrum of supported devices, it has a disadvantage in more complicated host code. DirectCompute – is part of DirectX. It is used in engines built on DirectX. It is rarely used for general computations.
Acta Informatica Pragensia
61
2.2 HIGHER FRAMEWORKS Then there exist frameworks and libraries based on mentioned low-level frameworks. These utilizes in most cases OpenCL and CUDA. They simplify the work with computation on graphic cards in the way that they make some steps automatically and provides simpler calls of functions. The best example is a graphic card initialization automation before the computation. In the OpenCL an initialization of single graphic card can take more than fifty lines of code. Now will be described frameworks that are focused on the mathematical computations on the graphic cards: VexCL [4] – for initializing of computational devices it is necessary to call initializing call. However it has an advantage that the code is executed over all requested devices. To copy data between graphic card and processor it uses simple call of copy command. Data can be also set by direct value assignment, but this is computationally slow. Furthermore it supports simple execution of simple mathematic operations. Operation is written with the graphics card variables and is automatically executed over all element of variables. An example of such a simple operation may look as follows: gpu_vec_C = gpu_vec_A + gpu_vec_B; gpu_vec_D = gpu_vec_C * 2.0;
It also supports more complicated operations however the whole code with parameters and all key words from OpenCL must be written. ViennaCL [5] – automatically initializes graphic card during the first call of any function from this library. As well as VexCL it supports simple entries in simple mathematical operations. It also supports data copying in the simple function copy, or by directly values assignment, but it is slow. MTL4 – it is similar mathematical framework as previous two with one difference. This framework is based on CUDA, so it can use only NVidia graphic cards for computations. Frameworks MTL4, ViennaCL and VexCL were compared in the paper from Demidov et. al. [6]. In the paper they are compared on chosen mathematical problems, where they achieve similar results on sufficient big problem. In the small problems a time of initialization was the factor. When comparing CUDA and OpenCL, were the frameworks based on CUDA a little bit faster. However practically this difference was insignificant. In spite of CUDA, OpenCL supports more hardware. Flame GPU [7] [8] – is computational framework assigned for simulation. One can see two fundamental disadvantages. The first is, that it is based on CUDA. Therefore it can use only the NVidia graphic cards. As NVidia form only a part of current graphic cards and do not support other computational devices, its utilization is limited. Other possible disadvantage is the use of XML based code when programming. This means a longer studying before work with the framework.
62
Mintál
3 DEVELOPED FRAMEWORK Designed framework is built on the OpenCL. Due to this it can work on different computation hardware and not only on the graphic cards NVidia, as it is in the case of CUDA framework. It is aimed on the computations during simulations. Because of this it does not support simple mathematical operations in the simple calls. During simulation are usually utilized complicated computations. These can be created in a simpler way within the framework. Framework supports also other benefit properties of mentioned frameworks, such as: automatic initialization, easier copying of data between the computational device and computer memory and other, that will be described later. Framework is kernel oriented not a data oriented. That means that for every computation there is created a kernel object with a code and data can assigned into this. This kernel can then simply be called several times with different data. It is also possible to assign data output from one kernel as a data input of another kernel. Then simply a computation over the kernels is called and no commands to transfer data between kernels have to be entered. In the next parts will be the framework described in parts and its advantages will be pointed out.
3.1 INITIALIZING Framework can automatically initialize itself. It is initialized during a first call that will have to work with the graphic card. If no graphic cards are found the computations will be parallel executed on the processor or other device supporting OpenCL. If necessary it is possible to manually define which device should be initialized. For example if it is wanted to execute the computations only on the specific graphic card.
3.2 MEMORY When creating a kernel it is necessary to define the types of input and output data (parameters of the kernel). This is done by the next procedure: procedure addParamArr
(paName: String = ''; paMemoryType: TECMemoryType = mtReadWrite; paLength: Cardinal = 0);
The only obligatory parameter is TType, TType is converted into appropriate type in OpenCL. If TType is a complicated record, then a struct with the same name is created in OpenCL. Then every element of the record is converted into an appropriate type in OpenCL and is inserted into the created struct under the same name as it has in the record. It is better to set a name that is later easy to use when copying data and during the pointing on the data in the kernel. Then setParam and getParam methods can be called over the kernel to set data and to obtain data from the graphic card. In the calls a parameter name of kernel can be used. Framework than copies correct size of data between graphic card and the computer memory.
Acta Informatica Pragensia
63
3.3 KERNEL CODE Kernel code can be entered directly as a string or as a name of a file where the code is. If the code is in file and it would contain a syntax error, framework announces this error and will wait for the error repair in the file. If the code would be repaired, framework is able to continue in the computation without crash or shutting down the application. Another advantage of the framework is, that it is not necessary to write a declaration of kernel function. Name of the kernel together with the correct parameter types and surrounding OpenCL code is generated automatically. It is needed to write only the computation code for the kernel that will use the names of the parameters identified during kernel creation. If the names were not defined, generated names will be created according to the type of used memory. Sometimes it is more useful not to have a lot of kernels, but call the functions from one kernel. For example for the reason of speed or code readability. It is possible to assign these functions into the kernel again as a string or a file name. When there is an error in the function code in the file, it is again possible to repair it by announced notification and continue in the application run.
3.4 TEMPLATE FUNCTIONS As was mentioned, framework does not support simple notation for simple mathematic operations. However it supports template functions for more complicated functions utilizing computational device. To these operations belongs for example prefix sum (scan) or sort. It is because these operations are mostly specific for parallel computations or more difficult to code and optimization. That is why a user can use them with benefit and is not forced to concern in detail of how they work on graphic cards or other computational device.
3.5 SIMULATION Framework is integrated into the multi-agent simulation architecture ABAsim. This architecture is divided into two layers: controlling agents and dynamic agents. Controlling agents are responsible for larger parts and work as a controllers. Dynamic agents represent intelligent entities presented in the model. These can be neurons in brain, ants in anthill or cars, trains and pedestrians in the traffic simulation. Framework is integrated into dynamic agents. It is because there is a large amount of these agents and they execute the same activity (the same code). This is preferable for graphic cards. For optimal utilization it is requested that the executed code is the same for all threads and is executed in as big as possible number of threads. Algorithm executed on big amount of threads is advantageous also from the point of future computation acceleration. The trend heads to the computational devices with higher number of cores that can faster process more threads. This way it is possible to create a kernel for dynamic agent and register it in the framework. This kernel is self-executed during simulation for every agent. Of course, this framework is able to utilize in other parts of simulation. It is enough to create kernel and then execute it in desired places.
64
Mintál
4 USING OF PROPOSED FRAMEWORK Described framework can be used during simulation in several ways and also it can be used outside the simulation. Framework has been tested in the pedestrian simulation. Before simulation itself it can be used to accelerate pre-simulation computations. For example to compute gradient maps [9] used for pedestrian navigation. Firstly we will describe a simple example of vectors addition. Secondly we will outline computations before and during simulation of pedestrians on graphic cards with their advantages.
4.1 VECTORS ADDITION An example of vectors addition (see below) is composed of three blocks. The first block creates reusable kernel. The second one copies data from RAM to graphic card and starts the computation. The third block deallocates kernel. More comprehensive description of the example is located below. // Part 1 length := 20; FArrayAdd := TECKernel.Create; FArrayAdd.Code := 'c[id] = a[id] + b[id];'; FArrayAdd.addParamArr<Single>('a', mtReadOnly); FArrayAdd.addParamArr<Single>('b', mtReadOnly); FArrayAdd.addParamArr<Single>('c', mtWriteOnly); // Part 2 FArrayAdd.setParamLength('c', length); FArrayAdd.setParam('a', a_cpu); FArrayAdd.setParam('b', b_cpu); FArrayAdd.Compute(length); FArrayAdd.getParam('c', c_cpu); // Part 3 FArrayAdd.Free;
In the first block, the kernel is created and code for graphic card is assigned. Afterwards the parameters with their types are defined. The second block executes the computation using Compute method. Result is retrieved by getParam into variable c_cpu. Another values for addition can be set using setParam. Call setParamLength is required only for output parameters, which size changes. The third block comprises just a single command, which deallocates the whole kernel with all parameters (if they are not used in another kernel).
4.2 COMPUTATION OF GRADIENT MAP Computation comprises two phases. Firstly a distance matrix is calculated. Gradient map is then created from this distance matrix (see Figure 1).
Acta Informatica Pragensia
65
Fig. 1. Distance matrix (a,) and gradient map (b,) with two obstacles [9]
Two kernels are needed for distance matrix computation. The first contains code [9] for distance matrix calculation in local group. The second one synchronizes groups. Data about obstacles are then sent to graphic card. This is accomplished by assignment of attributes to the first kernel. Both kernels share the same part of memory on graphic card. Output parameter of the first kernel is assigned to an input parameter of the second kernel and vice versa. Kernels are executed alternately until the whole distance matrix is calculated. Finally, a gradient map is computed from the distance matrix. For this we need another kernel, which for each cell finds the smallest value in neighborhood. Input of this kernel is distance matrix and output is gradient map. This solution has several advantages. Processor can execute another pre-simulation computations during computation of gradient maps on graphic card. Thanks to it, we can completely utilize the time needed for creation of gradient maps. Moreover, resulting maps are already located on graphic card and can be used for computation of pedestrians’ movement.
4.3 PEDESTRIAN MOVEMENT During simulation it is able to use a connection of framework with simulation architecture ABAsim. This solution is described in [10]. Described solution uses all properties of framework to implement a pedestrian movement based on social forces [11]. Firstly, a kernel is created. Computation is similar to processor alternative except finding of obstacles and pedestrians in surroundings. Static parameters are set to kernel, such as obstacles or gradient maps. This kernel registers itself into ABAsim architecture. We have to create a function for actualization of pedestrians attributes, for new pedestrian arrival and for pedestrian departure from the simulation. Before the computation of movement, the pedestrian asks, if there is available kernel for its type of movement. If there is one, ABAsim architecture calls function for actualization of pedestrians attributes, starts computation on graphic card and copies results from the card (if they are needed e.g. for statistics).
66
Mintál
The presented solution was tested on two simulation models. Examined models of the pedestrian movement are depicted in figure 2.
Fig. 2. Models of tested infrastructures [10]
The results of accelerating of movement of pedestrians on the graphics cards opposing to the serial implementation are depicted in figure 3. The computation for higher amount of pedestrians in simulated model was on the graphic card significantly faster than original serial implementation. Only for very small amount of pedestrians (up to the ten pedestrians) was the computation on the graphic cards slower. However in practical use it is needed to accelerate a computation for large amount of pedestrians. That is why results reached by this framework are very good.
Fig. 3. Results of comparison of framework with original implementation [10]
5 CONCLUSION The paper presented a framework for utilization of computational power of graphic cards, multi-core processors and other computational devices supporting OpenCL. This framework simplifies initialization and application against basic OpenCL framework. Due to the integration into the multiagent simulation architecture ABAsim it is possible to utilize it for accelerating of simulation computations. This way it is possible to create larger simulation models which computation will last shorten time.
Acta Informatica Pragensia
67
The framework was utilized to implement various algorithms. It was used also in the pedestrian movement simulation. This implementation significantly accelerated a computation of pedestrians in several models. Algorithms implemented in this framework can in future better utilize new hardware. This is because algorithms are parallel and are able to use a potential of new multi-core computational devices compared to current serial algorithms.
6 REFERENCES [1]
ADAMKO, N. and V. KLIMA. Agent based simulation architeture argumented by actors. In: SM'2006 - The 2006 European Simulation and Modeling Conference. Tolouse: 2006, pp. 30509. ISBN 90-77381-30-9.
[2]
KIRK, D. B. and W.M. W. HWU. Programming Massively Parallel Processors. 2010. ISBN: 978-0123814722.
[3]
GASTER, B. et al. Heterogenous Computing OpenCL. 2011. ISBN: 978-0123877666.
[4]
DEMIDOV, D. In: Vector expression template library for OpenCL [online]. 2013 [cit. 201310-15]. Available at: https://speakerdeck.com/ddemidov/vexcl-at-cse13
[5]
RUPP, K. F. RUDOLF and J. WEINBUB. ViennaCL - A High Level Linear Algebra Library for GPUs and Multi-Core CPUs. In: International Workshop on GPUs and Scientific Applications. Vienna: 2010, pp. 51-56.
[6]
DEMIDOV, D. et al. Programming CUDA and OpenCL: A Case Study Using Modern C++ Libraries. 2012, p. 21.
[7]
RIHMOND, P. and D. ROMANO. Template driven agent based modelling and simulation with CUDA. In: GPU Computing Gems Emerald Edition. 2011, pp. 313-24. ISBN 978-0-12384988-5.
[8]
KARMAKHARM, T. P. RICHMOND and D. ROMANO. Agent-based Large Scale Simulation of Pedestrians With Adaptive Realistic Navigation Vector Fields. In: Theory and Practice of Computer Graphics. Sheffield, 2010, pp. 67-74.
[9]
MINTÁL, M. Accelerating distance matrix calculations utilizing GPU. In Journal of Information, Control and Management Systems, Vol. 10, No.1, 2012, pp. 71-79. ISSN 13361716.
[10]
MINTÁL, M. Social forces pedestrian simulation utilizing graphics card within simulation tool PedSim. In IMEA 2013, Pardubice: University of Pardubice, 2013. ISBN 978-80-7395696-7.
[11]
KORMANOVÁ, A. Combining social forces and cellular automata models in pedestrians' movement simulation. In Journal of Information, Control and Management Systems, Vol. 10, No.1, 2012, pp. 61-70. ISSN 1336-1716.
Acta Informatica Pragensia 2(2), 2013, 68–76, DOI: 10.18267/j.aip.25 Online: aip.vse.cz
Section: Peer-reviewed papers
TOGAF usage in outsourcing of software development Aziz Ahmad Rais1, Rudolf Pecinovsky1 1
Department of Information Technologies, Faculty of Informatics and Statistics, University of Economics, Prague W. Churchill Sq. 4, 130 67 Prague 3, Czech Republic [email protected], [email protected]
Abstract: TOGAF is an Enterprise Architecture framework that provides a method for developing Enterprise Architecture called architecture development method (ADM). The purpose of this paper is whether TOGAF ADM can be used for developing software application architecture. Because the software application architecture is one of the disciplines in application development life cycle, it is important to find out how the enterprise architecture development method can support the application architecture development. Having an open standard that can be used in the application architecture development could help in outsourcing of software development. If ADM could be used for software application architecture development, then we could consider its usability in outsourcing of software development. Keywords: Outsourcing, Enterprise Architecture, Development, software application architecture
TOGAF,
Application
Acta Informatica Pragensia
69
1 INTRODUCTION The Enterprise Architecture (EA) framework is one of the standard ways that the organizations use to manage their IT to meet their organization’s business strategy. Enterprise architecture “is a welldefined practice for conducting enterprise analysis, design, planning, and implementation, using a holistic approach at all times, for the successful development and execution of strategy. Enterprise Architecture applies architecture principles and practices to guide organizations through the business, information, process, and technology changes necessary to execute their strategies.” [5] Therefore it happens that many organizations require that it be possible to use EA development method for developing software application architecture (Application architecture) too. Application software is all the computer software that causes a computer to perform useful tasks beyond the running of the computer itself. A specific instance of such software is called a software application, application program, application or app. Although there are many EA frameworks available, in this paper only TOGAF will be used for analysis, because TOGAF is one of the most frequently used framework by the organizations and is freely available. Because all EA frameworks should follow a holistic approach at all times, it will not make sense to analyse all of them. In order to analyse ADM and decide whether ADM could be used for development of application architecture, it is important to define what is application architecture and application architecture method. Application architecture will be understood as defined in online article [11]: Architecture is the fundamental organization of a system embodied in its components, their relationships to each other, and to the environment, and the principles guiding its design and evolution. There are different methods available on how to build application aritecture from different views. For example: 4+1 view architecture method [7], model driven architecture (MDA) from OMG (http://www.omg.org/mda/). There are also some goodpractices on how to use design patterns for building application architecture, but they are not important for comparision with ADM. Both the 4+1 and MDA use object-oriented design. Object-oriented design is a method of design encompassing the process of object-oriented decomposition and a notation for depicting both logical and physical as well as static and dynamic models of the system under design [3]. In order to be able to compare both architecture types, it is important to write a few words about the software application development methodologies. Software development methodologies design is a discipline that proposes the architecture of the application software. A software development methodology is a process that divides the software development disciplines e.g. analysis, design, implementation testing, and maintenance into different phases. Some methodologies perform those disciplines in a waterfall way and some more in parallel. It is useful to know that the architecture discipline belongs to design discipline. The details of how a software development methodology performs iteration on the development of an application architecture and in which step of a software application development process the design of an application is performed are beyond the scope of this paper.
70
Rais, Pecinovsky
The architecture developed in the design phase is called application architecture. Rational Unified process (RUP) software application methodology is architecture-centric and design of architecture is done before coding the application [6]. In agile methodologies architecture design is developed sometimes by first writing a code and by refactoring the code until it meets the business need for example in extreme programming (XP) [2]. Thus RUP is top-down development and XP is bottom-up architecture development methodologies. The application architecture development (AAD) that is part of the software development life cycle (software development process) is about to describe how the software application should be built. But in order to build AAD, if the target programming language is object oriented then the best practices is to use: object oriented principles, object oriented analysis (OOA) [8], and object oriented design (OOD) [3]Chyba! Nenalezen zdroj odkazů.. For analysis in this paper it is important to describe in short the TOGAF EA life cycle. The TOGAF EA life cycle has eleven phases; for this article the following phases are important: [1] [2] [3] [4]
Phase B: Business Architecture, Phase C: Information Systems Architectures - Application Architecture, Phase C: Information Systems Architectures - Data Architecture, Phase D: Technology Architecture,
Furthermore both types of architecture methods use business requirements to achieve their objective. For describing the business both methods use UML diagrams or UML extension diagrams e.g. process diagram. This common practice causes confusion without knowing the details of the UML diagrams. In the other part of both methods use case diagrams are used and not considering the granularity of the use cases in the diagrams is again confusing. Furthermore there are some similarities to other diagrams and disciplines e.g. deployment view and infrastructure view that are used in both architecture development methods. The data architecture of ADM uses entity relation diagrams that are used also by application architecture method to identify its data domain (sometimes it is called physical entities) All the above similarities initiate the idea whether ADM could be used for application architecture development. The difference between both methods is in what objective both methods achieve, and whom the outputs of both methods are for. The table below describes the summary of the process of the development of both types of architecture. The software application architecture development process implies from object oriented analysis and design process from the 4+1 view point of view. The EA development process details are described by TOGAF ADM.
Acta Informatica Pragensia
Enterprise architecture
Application architecture
ADM
Object-oriented design
Business architecture:
Business requirements analysis:
1. Business strategy
1. Business requirement
2. Business process using UML activity diagram UML extension diagram: business process diagram
2. Use UML activity diagram and UML extension diagram: business process diagram.
3. Organization unit: actors and roles
3. Actors list
Application architecture
Design:
1. Application Communication diagram
1. Component diagram (logical view)
2. Application and User Location diagram
2. Interaction or sequence diagram (process view)
3. Enterprise Manageability diagram 4. Process/Application Realization diagram 5. Application Migration diagram 6. Software Distribution diagram 7. Software Engineering diagram
8. Application Use-Case diagram Data architecture
3. Use case diagram 4. Package diagram, class diagrams (implementation view) 5. Technology view (framework, components, libraries) 6. Integration view
7. Component diagram (Deployment view) Problem domain:
1. Data Management
1. Business domain
2. Data Migration
2. Object domain
3. Data Governance
3. Data domain
Technology architecture
71
Support /infrastructure view
1. Environments and Locations diagram
1. Hardware diagram
2. Platform Decomposition diagram
2. Network diagram
3. Processing diagram 4. Networked Computing/Hardware diagram
5. Communications Engineering diagram Table 1: Table describes ADM and object oriented design methods steps to develop EA and application architecture. [Source: authors]
72
Rais, Pecinovsky
2 ANALYSIS OF DIFFERENCES BETWEEN ADM AND AAD Some differences could be clear from detailed examples or detailed analysis of both methods. But describing all the details would be a lot of duplication work that is clear from the documentation and theory.
2.1 BUSINESS This chapter will briefly highlight how every method uses the term “business” in the business architecture and business requirements. In the ADM method business is analyzed to develop business architecture. What does business architecture means and how is it different from the result of business analysis in AAD? The difference could be in many places but for this analysis we will concentrate on what objectives are going to be achieved by the specific principle or step of the method. The objective of business architecture is how the business goal, and business strategy, technology strategy and vision architecture of an enterprise is met. The other objective of it is to develop a roadmap if there is GAP in a vision, a strategy and business architecture. As the strategy and vision architecture is an important discipline for IT governance and according to COBIT [4] this is responsibility of executive management of an organization, so the business architecture is target for executive management of the organization. The subject of business analysis is to analyze the business process and geographical aspect of organization from organizational perspective. On other hand the objectives of business analysis in AAD is to identify details of business and business process that needs to be implemented by a software application. The objective is to satisfy the stakeholder’s needs and is not an organization, business, or technology strategy. These business requirements are detailed-level information that supports the enterprise business needs. To summarize, the business architecture describes business on enterprise level for strategic needs of enterprise. The enterprise strategic goals and enterprise architecture are supported by detailed business processes that are automated and implemented by software application.
2.2 DESIGN According to the ADM development life cycle, application architecture and data architecture compose system architecture. The application architecture has to follow the objective of system architecture. The objective of system architecture is similar to business architecture. In short targeted users of this architecture are also executive management of an enterprise. The Application Architecture provides a blueprint for the individual application systems to be deployed, their interactions, and their relationships to the core business processes of the organization. [9] As mentioned in the introduction chapter, application architecture is one of the phases of ADM life cycle. Like every other phase in ADM this phase also has some activities that should be performed in order to build the application architecture in EA. These activities are: defining objectives, describing an approach, defining necessary inputs and outputs and steps to take for generation of outputs. For
Acta Informatica Pragensia
73
comparison and analysis of ADM and AAD is enough to analyse the activities inputs, outputs and steps of application architecture in ADM. Every aspect of the Application architecture development has many items. Here only some aspects will be described to make clear the differences between ADM and AAD. 2.2.1
INPUTS
The inputs are draft architecture requirements specification that contains a gap analysis results (from Business Architecture and Data Architecture, if available) and relevant technical requirements that will apply to this phase. Another input is business and data architecture components of an Architecture Roadmap. Besides others, Organizational Model for Enterprise Architecture describes budget requirements and governance and support strategy, Scope of organizations impacted. The AAD inputs can be detailed business requirements, business process and their models and list of actors and stakeholders. Furthermore, to compare the above inputs with one another the application architecture development method requires low level business details and the Enterprise architecture high level and strategic requirements. This means that the subject of both architecture is different and AAD could be seen a subset of ADM. 2.2.2
OUTPUTS
In the ADM one of the outputs of the application architecture process is draft architecture definition document that includes baseline application architecture, target application architecture. The target application architecture contains the following models: 1. 2. 3. 4.
Process systems model Place systems model Time systems model People systems model
Other output is an update of draft architecture requirements specification and diagram mentioned in the table 1. In the AAD the output of the application architecture development is mostly only one document - that is, architecture document - that contains the details how to implement each business process, use case and domain model. This output is used by the developers to know how to implement the software application. Comparing that result with ADM application architecture is quite different and the output of ADM would be very difficult for a developer to follow and to know what the application software to implement and how to implement. But in the ADM application development output there is good information about what services an application provides, what business process an application provides without details (e.g. how the process is implemented). There is only information that makes executive to judge how the strategy is met and what GAP in the business exist.
74
Rais, Pecinovsky
2.2.3
STEPS
Bellow is the list of steps according to AMD method that need to be taken to produce the output. 1. 2. 3. 4. 5. 6. 7. 8. 9.
Select Reference Models, Viewpoints, and Tools Develop Baseline Application Architecture Description Develop Target Application Architecture Description Perform Gap Analysis Define Candidate Roadmap Components Resolve Impacts Across the Architecture Landscape Conduct Formal Stakeholder Review Finalize the Application Architecture Create Architecture Definition Document
In AAD there is a need to identify use cases and use case description. After identifying the use cases there is need for identification of the logical components and relation between them. The next step is that the components would be grouped in the packages and it can be determined how to deploy them. Comparing steps of both methods, we can see that they are too far from each other, but some of the steps in ADM can be useful like GAP analysis. The GAP analysis is good when there is a need to build software application on third party solution or packages, in which case it will be required to do a GAP analysis of the components. But the GAP analysis in ADM is about to find out GAP between strategy, objective and software application service. In such case even though some step can be used but the subject and objective of the steps are different.
2.3 DATA The data architecture process of ADM is similar to the application architecture step of ADM, because both architectures belong to the same step of the ADM life cycle. So from the input, output and step perspective the results of comparing data architecture to the problem domain of AAD would be the same as comparing the application architecture development process of ADM with the design of application architecture in AAD. Here other aspect of data architecture and compared with design in AAD would be analyzed. The key concern of data architecture in ADM is data management, data migration, data governance. Data management concern is how and where data entities are used, created, transported or reported in business architecture. How the data could be used by customers and suppliers. In the data migration, this concern happens only if information system architecture is going to be changed. The data governance is the concern of the executive of an organization and it is regarded to resources, skills, structure in the organization. The data governance provides a management system to manage the data governance aspects. The concerns of the problem domain in AAD are to identify the business entities of business domain and to find a proper object model that can meet business domain requirements. Another concern of the
Acta Informatica Pragensia
75
problem domain is to identify physical entities to store and manage business data based on an object domain and a business domain. The concerns of AAD are again related only to the problem domain, but data architecture solves and provides strategies for the problem domain of the whole information system in an organization.
2.4 TECHNOLOGY Based on the above analysis the objective and concerns of technology architecture in ADM is high level and it solves and provides a platform picture of whole infrastructure of IT in the organization. But the application level infrastructure view is only to identify where physically the software application runs. It does not solve IT infrastructure issues of the organization.
3 CONCLUSION The conclusion is whether TOGAF ADM can be used to as method developing application architecture of software. The answer is no, it cannot be used as a method for developing application architecture of a software. Hence TOGAF ADM cannot be used as a method for software architecture development in outsourcing software development. This implies also that EA is architecture for capturing the IT picture on an organizational level and using any EA framework for developing application software architecture is not suitable, because of the level of details that are captured by EA. We can conclude that software application architecture development is one of the pillars of EA. Besides ADM, The TOGAF framework provides, reference model, capability framework content framework, ADM Guidelines and Techniques, Enterprise Continuum and Tools. Furthermore, the content framework of enterprise architecture framework (TOGAF) provides very useful information that can play crucial role in outsourcing. TOGAF reference model can be used to reference the application architecture developed with outsourcing. Agile development methodologies are by nature iterative. Solving strategic issues in outsourcing of software development project iterations would not be so effective and would delay the software delivery. That is why all strategic and base line architecture, architecture foundation and common architecture best practices of TOGAF can help in increasing the quality of the software application architecture proposed by supplier. Some strategies can be even used as an acceptance criterion and could be used during QA processes. Thus, TOGAF or any other EA framework is useful in outsourcing.
4 REFERENCES [1]
ArchiMate 2.1 [Online]. The Open http://www.opengroup.org/subjectareas/enterprise/archimate
[2]
BECK, Kent. Extreme Programming Explained, First Edition, 1999, ISBN: 0201616416.
Group.
available
on:
76
Rais, Pecinovsky
[3]
BOOCH Grady, et al. Object-Oriented Analysis and Design with Applications. Third Edition. April 2007, Addison-Wesley. ISBN 0-201-89551-X.
[4]
COBIT 4.1. IT Governance Institute, ISBN 1-933284-72-2
[5]
Federation of EA Professional Organizations. Common Perspectives on Enterprise Architecture. Architecture and Governance Magazine 9 (4), November 2013.
[6]
KRUCHTEN, Philippe. Rational Unified Process: An Introduction, Third Edition, Addison Wesley, 2003, ISBN: 0-321-19770-4.
[7]
KRUCHTEN, Philippe. Architectural Blueprints—The “4+1” View Model of Software Architecture. Paper published in IEEE Software 12 (6) November 1995, pp. 42-50
[8]
McLAUGHLIN, Brett, POLLICE Gary, WEST David. Object-Oriented Analysis and Design, O'Reilly Media, 2006, ISBN: 978-0-596-00867-3.
[9]
Open Group Standard 9789087536794.
[10]
STEHLÍK, Hynek. Vizuální jazyk Archimate pro modelování Enterprise architektury na příkladu integrace ekosystému tabletu [online]. Acta Informatica Pragensia 2 (1), pp. 57-69. [2013-12-12]. available on: http://aip.vse.cz/index.php/aip/article/view/29/18
[11]
What is a software architecture? [online]. IBM. [2013-11-15]. http://www.ibm.com/developerworks/rational/library/feb06/eeles/
TOGAF
Version
9.1,
Document
Number:
G116,
ISBN:
available
on:
Acta Informatica Pragensia 2(2), 2013, 77–96, DOI: 10.18267/j.aip.26 Online: aip.vse.cz
Sekce / Section: Recenzované stati / Peer-reviewed papers
Mikroprogram pre riadenie procesu spájania operandov v architektúre DF KPI Norbert Ádám1 1
Katedra počítačov a informatiky, Fakulta elektrotechniky a informatiky, Technická univerzita v Košiciach, Letná 9, 040 01 Košice, Slovenská republika [email protected]
Abstrakt: V článku uvedená architektúra je založená na výpočtovom modeli „data flow“, v ktorom riadenie výpočtu je založené na spracovaní toku dát. Základným prvkom DF architektúry je koordinačný procesor (CP), ktorý je zodpovedný za riadenie a organizáciu vykonávania inštrukcií. Štruktúrna organizácia CP je navrhnutá ako dynamický multifunkčný systém. Pri vykonávaní operácií môže CP prechádzať rôznymi stavmi, v dôsledku čoho táto jednotka predstavuje dynamický prúdový systém. Prechod a poradie prechodu medzi jednotlivými stavmi CP je podmienený typom spracovaného operátora pri interpretovaní prúdu operandov. Z možných typov operátorov, článok uvádza mikroprogramové riadenie pre jednovstupové operátory. Klíčová slova: data flow model, mikroprogram, spájanie operandov, spracovanie, zreťazenie Title: Microprogram for operand matching in DF KPI architecture Abstract: The architecture described in this article is based on the data-flow computation model, in which computation is driven by processing a flow of data. The basic element of the data-flow architecture is the coordinating processor (CP), responsible for controlling and organizing the execution of instructions. As to its structure, the CP is designed as a dynamic, multi-functional system. When executing the operations, the CP may acquire various states, therefore it is a dynamic pipelining system. The transitions and the order of the states between two transitions depend on the type of the operator processed at the time of interpreting the flow of operands. This article details the microprogram control of single-input operators. Keywords: Data flow model, Microprogramm, Pipeline, Processing, Operand matching, Processing unit
78
Ádám
1 ÚVOD Prudko sa zvyšujúce nároky moderných aplikácií na technické možnosti počítačových systémov, prenikanie výpočtovej techniky do nových vedných disciplín smerujú výskum a vývoj počítačových systémov do sfér, kde si už nevystačíme s klasickými informačnými technológiami typu von Neumann. Vzniká potreba vývoja nových architektúr, na ktoré sa kladú požiadavky s dôrazom na výkonnosť, spoľahlivosť, efektívnosť a cenovú reláciu. Dosiahnutie týchto cieľov je podmienené uplatnením nových fyzikálnych princípov (napr. princípov optoelektroniky), použitím modernej technológie výroby prvkov [4], [6], [7] (vysoká koncentrovanosť prvkov na čipe), nasadenie nových architektonických riešení [9], [14], [17] a vylepšením riadenia týchto systémov [10], [11]. V rámci rôznych smerov vývoja počítačov novej generácie s extrémne vysokou výkonnosťou osobitnú triedu paralelných počítačov tvoria architektúry založené na výpočtovom modeli „data flow“. Výpočtový model „data flow“ (DF) patrí medzi modely, ktoré reprezentujú paralelnú organizáciu výpočtu typu „data-driven“. Jeho charakteristickou vlastnosťou je to, že inštrukcie programu DF pasívne čakajú na príchod určitej kombinácie svojich argumentov, sprístupňovanie ktorých sa organizuje ako údajový prúd riadenia v zmysle definície „data-driven“. Interval čakania inštrukcie na príchod operandov reprezentuje jej výberovú fázu, v priebehu ktorej dochádza k alokácii výpočtových prvkov, tzv. procesných elementov. Program, pri ktorom sa využíva výpočtový model DF, sa nazýva program DF. Jeho strojovou reprezentáciou je graf toku dát (Data Flow Graph; DFG). Významnou vlastnosťou programu DF, resp. výpočtového modelu DF je to, že umožňuje aplikovať princípy paralelného spracovania inštrukcií na všetkých troch úrovniach (jemnozrnný, strednozrnný, hrubozrnný) paralelizmu. Realizáciu paralelizmu na zvolenej úrovni umožňujú dva charakteristické princípy výpočtového modelu DF:
Asynchrónnosť – všetky operácie sa vykonávajú vtedy, keď sú dostupné vyžadované operandy. Funkcionalita – všetky operácie sú funkcie, tzn., že nezávisia od operandov iných funkcií (neexistujú vedľajšie účinky), v dôsledku čoho sa môžu vykonávať paralelne.
Ďalšou významnou vlastnosťou modelu DF a jeho realizácie je to, že sa programu DF prispôsobuje štruktúra technických výpočtových prostriedkov. Výpočtový model DF sa symbolicky zobrazuje vo forme DFG, v ktorom uzly predstavujú operácie a hrany predstavujú údajové závislosti medzi operáciami. Kým na abstraktnej úrovni sa výpočtový model interpretuje putovaním dátových tokenov (Data Token, DT) v grafe, ako výsledku konzumovania (odpálenia) a generovania operandov uzlami grafu, na realizačnej úrovni sa výpočtový model DF realizuje prenosom a spracovaním údajov vo funkčných jednotkách príslušnej počítačovej architektúry. Boli vypracované rôzne štúdie zamerané na „data flow“ výpočtový model [8], [9], [16] a bolo navrhnutých niekoľko počítačových architektúr riadených tokom dát [1], [2], [3], [5], [9], [14], [15]. Tieto architektúry sa podľa spôsobu spracovania toku dát delia na statické a dynamické architektúry.
Acta Informatica Pragensia
2 VÝPOČTOVÉ MODELY ARCHITEKTONICKÝCH PARALELNÝCH POČÍTAČOVÝCH SYSTÉMOV
79
KONCEPCIÍ
Architektonické koncepcie počítačov a princíp ich činnosti sa môže odvíjať od výpočtového modelu, ktorým je definovaný spôsob riadenia procesu spracovania informácií. Existuje rad výpočtových modelov, spomedzi ktorých najvýznamnejšie sú: Výpočtový model „control flow“ (VM CF), pri ktorom sa riadenie výpočtového procesu uskutočňuje prostredníctvom interpretácie sériového prúdu inštrukcií programu. Výpočtový model „data flow“ (VM DF), pri ktorom sa riadenie výpočtového procesu uskutočňuje prostredníctvom prúdu operandov (údajov), definujúcich pripravenosť inštrukcií na vykonanie. Výpočtový model „demand driven“ (VM DD), pri ktorom sa riadenie výpočtového procesu uskutočňuje na základe požiadaviek inštrukcií programu na vyslanie operandov. Výpočtové modely založené na báze organizácie výpočtu typu DD sa nazývajú redukčné modely. Na základe implementácie týchto výpočtových modelov (VM) sa rozlišujú:
počítače riadené prúdom inštrukcií – založené na VM CF, počítače riadené prúdom údajov – založené na VM DF, počítače riadené požiadavkami (redukčné počítače) – založené na VM DD.
Vo všeobecnosti výpočtový model reprezentuje opis realizácie programu. V jednotlivých modeloch CF, DF a DD sa organizácia výpočtového procesu uskutočňuje: 1. na báze príkazov. Program sa vykoná prostredníctvom adresovateľných inštrukcií sprístupňovaných nastavením programového počítadla (PC), z ktorých každá, v zmysle von Neumannovho princípu programového riadenia, špecifikuje (control token): operáciu nad operandmi alokovanými s inštrukciami v spoločnej pamäti, podmienené alebo nepodmienené riadenie prechodu na vykonanie nasledujúcej inštrukcie. Vykonanie inštrukcií môže prebiehať sekvenčne, prúdovo alebo paralelne. 2. na báze údajov. Inštrukcie programu sa vykonajú v okamihu, keď majú sprístupnené operandy (data token), čo vytvára optimálne podmienky na jeho paralelnú implementáciu. Vykonanie inštrukcií sa organizuje na rôznej úrovni paralelizmu prúdovo a/alebo paralelne. 3. na báze požiadaviek. Inštrukcie programu sa vykonajú v okamihu, ak výsledok príslušnej operácie je požadovaný inou inštrukciou programu prostredníctvom osobitnej požiadavky (demand token). Vykonanie inštrukcií sa organizuje na rôznej úrovni inštrukčného paralelizmu prúdovo alebo paralelne. Požiadavky VM DD kladú pri návrhu počítačových architektúr príliš vysoké nároky na hardvér. Efektívne riešenie mechanizmu šírenia požiadaviek rapídne zvyšuje cenu hardvéru a preto od vývoja redukčných počítačov opustilo. Princípy VM DD sa uplatňujú v dnešných prekladačoch na softvérovej úrovni pri preklade programov do strojového jazyka. Uvedený článok sa zaoberá opisom počítačovej architektúry s VM DF. Charakteristika ako aj hlavné prednosti a nedostatky VM DF v porovnaní s VM CF sú opísané v nasledujúcej podkapitole.
80
Ádám
2.1 PREDNOSTI A NEDOSTATKY DF ARCHITEKTÚR Konvenčné von Neumannove počítače, sú založené na princípe VM CF, pri ktorom riadenie výpočtového procesu sa uskutočňuje prostredníctvom interpretácie sériového prúdu inštrukcií programu. Sériové vykonávanie inštrukcií na úrovni hardvéru je podporované programovým počítadlom. Úlohou programového počítadla je určiť nasledujúcu inštrukciu v prúde inštrukcií. Obsah programového počítadla po vykonaní jednej inštrukcie sa inkrementuje alebo v prípade riadiacich inštrukcií (GOTO, JUMP a CALL) sa nastaví explicitne. Údaje sa nachádzajú buď v pamäti alebo v registroch počítača. Dátový prúd je určený odvolávaním sa na tieto pamäťové bunky, čo nemá vplyv na riadenie vykonávania inštrukcií, t.j. poradie vykonávania inštrukcií je jednoznačne určené prúdom inštrukcií. Interpretácia výpočtu jednoduchého matematického výrazu v tomto modeli a spôsob reprezentácie dát je znázornený na Obr. 1.
Obr. 1. Výpočet výrazu R = (A + B) x (B + 1) podľa princípu programového riadenia
Inštrukcie sa nachádzajú v pamäti inštrukcií v takom poradí v akom poradí budú vykonávané. Operandy (okrem konštánt) sú reprezentované smerníkmi, ktoré ukazujú na pamäťové miesto kde je operand uložený. Slabá stránka von Neumannovho modelu sa najviac prejavuje pri spracovaní programových cyklov (for, while, ...). Tento model neumožňuje rozvinutie jednotlivých iterácií v priestore. Tým pádom aj v prípadoch, keď telo cyklu tvoria v čase od seba nezávislé inštrukcie, inštrukcie sa vykonávajú sekvenčne za sebou. Výhoda von Neumannovho modelu spočíva v tom, že ak operandy uložíme do registrov, tak je možné vykonať efektívnu optimalizáciu (preusporiadanie) dát. V modeli DF, riadenie výpočtu je jednoznačne určené tokom dát. Poradie inštrukcií v programe nemá vplyv na poradie vykonávania týchto inštrukcií. Inštrukcia sa vykoná v momente keď sú dostupné všetky informácie (všetky operandy) na jej vykonanie. Model DF, na rozdiel od VM CF, nedisponuje spoločnými prepisovateľnými pamäťovými elementami. Údaje sa prenášajú nezávisle medzi pamäťovými bunkami, a ich dostupnosť určuje okamih vykonania inštrukcie. Dostupnosť údajov pre
Acta Informatica Pragensia
81
viacero inštrukcií naraz umožňuje paralelné vykonanie týchto inštrukcií. Možný paralelizmus v procese vykonávania inštrukcií je určený pomocou grafu závislosti dát (Data Dependency Graph), resp. grafu toku dát (DFG). Uzly v grafe reprezentujú inštrukcie programu a hrany medzi uzlami určujú vzťahy medzi dátami (Obr. 2).
Obr. 2. Graf toku dát pre výpočet výrazu R = (A + B) x (B + 1)
Údaje na hranách sa pohybujú v tvare dátových tokenov (DT), ktoré obsahujú stavové informácie a číselnú hodnotu údajov. Asynchrónne a paralelné vykonávanie inštrukcií je dané pravidlom odpálenia tokenu: uzol je pripravený na odpálenie (vykonanie) ak na každom vstupe tohto uzla sa nachádza token. Počas vykonania uzla, tokeny na vstupe sú konzumované (následne odstránené zo vstupov), vykoná sa inštrukcia priradená k tomuto uzlu a výsledok vykonania danej inštrukcie sa objaví na výstupe uzla vo forme tokenu. Výhoda DF modelu spočíva v tom, že uzly DFG sa vyhodnocujú samostatne na základe pravidla odpálenia tokenov. Na obrázku 3 sa nachádza riešenie problému z obrázka 2 použitím modelu DF. Z obrázka 3 vyplýva že v tomto modeli neexistuje samostatná údajová pamäť. Operandy inštrukcií sú súčasťou inštrukčného formátu. Inštrukcia je pripravená na vykonanie vtedy a len vtedy, keď všetky jej operandy sú dostupné na jej vykonanie. Dostupnosť operandov je indikovaná prítomnosťou operanda v inštrukčnom formáte.
Obr. 3. Výpočtu výrazu R = (A + B) x (B + 1) podľa princípu riadenia tokom dát
82
Ádám
Miesto uloženia týchto inštrukcií vo viacprocesorových systémoch nemá vplyv na efektívnosť vykonávania inštrukcií a synchronizáciu inštrukcií je možné vykonať aj bez explicitných synchronizačných techník ako je napr. semafor. Nevýhoda oproti VM CF spočíva vo veľmi zložitom mechanizme spájania operandov a v ťažkopádnosti registrovej optimalizácie. Hlavným prínosom VM DF oproti VM CF (v kontexte viacvláknových architektúr1) je to, že okamih spracovania inštrukcie programu je podmienený len prítomnosťou požadovaných operandov, t.j. umiestnenie inštrukcie v pamäti počítača nemá vplyv na poradie vykonávania inštrukcie. Tento fakt umožňuje zvýšiť koeficient vyťažiteľnosti funkčných jednotiek danej architektúry, čo priaznivo ovplyvňuje priepustnosť a tým redukuje potrebný čas na dokončenie výpočtu. V DF architektúrach sa prejavuje len hazard typu RAW (Read-after-Write). Ďalšie dva typy údajového hazardu, WAR (Writeafter-Read) a WAW (Write-after-Write), sú eliminované počas prekladu výpočtového problému do tvaru DFG. Znalosť informácie o výskyte hazardu RAW, už v čase prekladu do DFG, umožňuje efektívne synchronizovať činnosť komponentov DF architektúry a tým znižovať oneskorenie v dôsledku nedostupnosti operandov pre spracovanie inštrukcií. Zároveň platí, že koeficient vyťažiteľnosti procesného elementu vo viacvláknových architektúrach vyjadrený zápisom: ܷൌ
ܲ ܲ ൌ ܶ ܲܫܵ
(1)
kde U P T I
S
- koeficient vyťažiteľnosti procesného elementu počítačovej architektúry; - čas potrebný na realizáciu výpočtu; - doba spracovania programu; - čas čakania na vykonanie V/V operácie, čas prístupu do pamäťového podsystému, čas v priebehu ktorého procesný element vykonáva inštrukcie iného programu v rámci multiprogramovania; - čas potrebný na prepínanie medzi kontextmi vlákien.
v prípade DF architektúr udáva väčšie číslo (hodnotu bližšiu k číslu 1) ako pre viacvláknové architektúry riadených tokom príkazov [13]. Ďalšou prednosťou VM DF oproti VM CF je viacrozmernosť, viacnásobné prúdové spracovanie inštrukčného paralelizmu a hardvérový paralelizmus. Základný VM DF vychádza z dvoch východiskových prístupov vytvárania modelov DF, ktoré reprezentujú statické modely a dynamické modely, opis ktorých je predmetom nasledujúcej kapitoly.
3 POČÍTAČE RIADENÉ TOKOM DÁT Implementácia architektúry počítača DF závisí od spôsobu vykonania inštrukcií programu DF, ktorý prebieha ako proces prijímania, spracovania a vysielania dátových tokenov (Data Token - DT), reprezentujúcich údaje a príznaky na hranách DFG. V závislosti na spôsobe spracovania DT v DFG, resp. v závislosti na rozsahu architektonickej podpory jeho vykonávania, sa rozlišujú nasledujúce typy priamych architektúr DF: 1
Porovnávajú sa paralelné architektúry.
Acta Informatica Pragensia
83
Statické modely (Obr. 4a); Dynamické modely (Obr. 4b).
Výpočtový model statického DF počítača bol navrhnutý výskumným tímom Dennisa z inštitúcie MIT [3]. Statický model reprezentovaný orientovaným grafom, pozostáva z operátorov, údajových (dátových) a riadiacich hrán a údajových (dátových) a riadiacich DT. Z priestorového hľadiska je prípustné, aby na jednej hrane bolo umiestnených niekoľko DT, v danom časovom okamihu môže byť však prítomný iba jeden. Operátor je aktivovaný (spustený), ak na jeho výstupných hranách sa nenachádza žiadny DT [1], [3]. Statický model (Obr. 4a) pozostáva z nasledujúcich funkčných blokov: Pamäť aktivačných rámcov (Activity Store) obsahuje aktivačné rámce inštrukcií, reprezentujúce uzly v DFG. Každý aktivačný rámec obsahuje operačný kód, položky pre operandy a cieľovú adresu. Položka operandov obsahuje kontrolný bit pre určenie dostupnosti operanda. Aktualizačná jednotka (Update Unit) vykonáva aktualizáciu DT a skontroluje či je inštrukcia vykonateľná. Ak podmienka vykonateľnosti je splnená, jednotka pošle inštrukciu cez inštrukčnú FIFO pamäť do výberovej jednotky inštrukcií. Jednotka výberu inštrukcií (Fetch Unit) sprístupňuje adresy vykonateľných inštrukcií, na základe ktorých, z príslušných aktivačných rámcov uložených v aktivačnej pamäti, vyberie operačný kód, príslušné operandy a cieľové adresy výsledku operácie, vytvárajúc tak operačný balík. Tento operačný balík potom pošle do voľnej operačnej jednotky. Operačná jednotka (Operation Unit) zrealizuje výpočet a výsledok vykonanej operácie pošle do aktualizačnej jednotky. Nakoľko statická DF architektúra nie je schopné efektívne spracovať také programové konštrukcie ako sú cykly a rekurzie (v tomto modeli je povolený len jeden token na vstupe operátora) bol vyvinutý dynamický model DF architektúry. Dynamický DF model bol navrhnutý skupinou s členmi Arvind z MIT [1], Grund a Watson z University of Manchester [5]. V dynamickom DF modeli operátor spojený s uzlom je vykonateľný vtedy, keď všetky vstupné hrany obsahujú tokeny, ktorých značky sú identické [1]. V tomto modeli každá hrana môže obsahovať viac ako jeden značený token. Pri vykonaní uzla k sebe patriace tokeny sú odstránené zo vstupných hrán a na výstupnej je vygenerovaný token s príslušnou značkou. Dynamický DF model využíva tak slučkový paralelizmus ako aj rekurzívny paralelizmus, ktoré sa dynamicky objavujú počas behu programu, preto takáto architektúra musí podporovať proces spájania operandov. Opis jednotlivých funkčných blokov (Obr. 4b) dynamického modelu počítača riadeného tokom dát je uvedený nižšie. Spájacia jednotka (Matching Unit) predstavuje pamäť, ktorá vykonáva spájanie operandov na vstupe operátora. K spájaniu operandov dochádza len vtedy, ak DT definujúci daný operand je určený pre
84
Ádám
dvojvstupový operátor, na základe čoho sa inicializuje proces spájania operandov. Ak spájanie bolo úspešné (z frontu tokenov bol sprístupnený token s rovnakou značkou uloženou v jednotke) jednotka pošle korešpondujúci DT do jednotky výberu inštrukcií. Ak v jednotke sa nenachádza DT korešpondujúci so vstupujúcim DT, token sa uloží do nej.
Obr. 4. (a) Statická data flow architektúra (b) Dynamická data flow architektúra
Jednotka výberu inštrukcií (Fetch Unit) uskutočňuje výber pripravených inštrukcií z pamäti programu a generuje vykonateľný balík pre vykonávaciu jednotku. Pamäť programov (Instruction Store) plní funkciu pamäti inštrukcií programu DF. Vykonávacia jednotka (Processing Unit) spracuje operácie definované v DF programe a výsledok postúpi ďalej do spájacej jednotky cez front údajov. Front údajov (Token Queue) spĺňa funkciu prepojovacieho média medzi vykonávacou a spájacou jednotkou. Súčasný vývoj aplikácií princípov DF pri návrhu architektonického riešenia počítačov DF je zameraný na dynamické DF výpočtové modely. Rad dynamických modelov DF architektúr tvoria:
architektúry s označenými aktivačnými značkami (Tagged Token Model, TT), architektúry s pamäťou explicitných aktivačných značiek (Explicit Token Store Model), architektúry s kombinovaným (hybridným) CF/DF modelom (Hybrid Model).
Hlavnou prednosťou TT architektúr pred statickými modelmi je lepšia výkonnosť, pretože pripúšťa viacnásobné DT na hranách uzla, čo umožňuje rozvinutie väčšieho paralelizmu. Problémom modelov TT architektúr je dosiahnutie efektívnej implementácie jednotky spájania rovnako označených DT (spájacej jednotky) na hranách uzlov (operátorov). Pre tento účel bola používaná asociatívna pamäť, ktorá však pre jej vysoké náklady nepredstavovala optimálne riešenie (aplikácia asociatívnej pamäti na spájanie DT v TT architektúrach musí mať značnú kapacitu, v dôsledku čoho jej realizácia je príliš nákladná). Nevýhodou TT architektúr je nízka účinnosť spájania DT uskutočňovaného pomocou cenovo náročnej asociatívnej pamäti so zložitou organizáciou vyhľadávania veľkého množstva operandov. Asociatívny
Acta Informatica Pragensia
85
princíp spájania je možné eliminovať zavedením pamäti explicitných aktivačných značiek. Princíp spájania pomocou pamäti explicitných aktivačných značiek spočíva v alokovaní aktivačných rámcov v pamäti rámcov (Frame Store, FS) pre každú aktiváciu iterácie cyklu alebo podprogramu pri vykonávaní programu DF. Pravé architektúry DF, ktoré vychádzajú z koncepcie prítomnosti jediného DT na hranách DFG (statické DF) alebo viacerých, označených DT na hranách DFG (dynamické DF), spracúvajú inštrukčný kód s relatívne nízkou výkonnosťou. Tento nedostatok vyplýva z nasledujúcich skutočností:
nie sú využité prednosti prúdového spracovania, pretože vykonanie každej inštrukcie v definovanej postupnosti inštrukcií môže byť prúdovo spracované až po ukončení predchádzajúcej inštrukcie. Tzn., že v n-fázovom prúdovom DF systéme je jeho výkonnosť nnásobne znížená; réžia spájania DT znižuje efektívnosť prúdového systému DF, pretože v dôsledku aktivačného pravidla dyadická operácia môže byť vykonaná až po príchode druhého (partnerského) DT, čo vytvára podmienky na vznik oneskorení v prúdovom spracovaní reťazca inštrukcií; v dôsledku prepínania kontextu po vykonaní každej inštrukcie v definovanom zoskupení inštrukcií jemnozrnného systému DF, nie je možné zvýšiť jeho výkonnosť: o použitím registrov na optimalizáciu prístupového času k údajom, o vyhýbaním sa oneskorení pri prúdovom spracovaní dyadických inštrukcií, o znížením počtu DT pri vykonávaní programu DF.
Uvedené nedostatky je možné eliminovať aplikáciou kombinácie VM CF a VM DF pri návrhu architektúry DF. Z von Neumannovských princípov v architektúre DF sa uplatňujú tie inštrukcie, ktoré redukujú réžiu riadenia systému DF prostredníctvom:
zvyšovania granularity DFG, využitia rôznych mechanizmov riadenia zdrojov známych z von Neumannovských architektúr.
Na základe uplatnenia rôznych techník kombinovania VM CF a VM DF sa rozlišujú nasledujúce modifikácie architektúr DF:
zreťazené DF (Multithreaded Data Flow), hrubozrnné DF (Coarse-Grained Data Flow, Macro Data Flow), RISC DF.
Architektúra opísaná v nasledujúcich kapitolách patrí do triedy hybridných CF/DF architektúr. Opisovaná architektúra DF-KPI je jedinečná v kontexte dynamických hybridných CF/DF architektúr nakoľko zavádza N-vstupové (N≥3) operátory a spája prednosti zreťazených a hrubozrnných hybridných architektúr. Umožňuje vytvárať subgrafy v DF programe pomocou techniky farbenia grafu, čím vzniká možnosť si zvoliť optimálnu granularitu paralelizmu, aplikovať techniku maskovaného multi-mapovania subgrafov do pamäte rámcov [] a zároveň umožňuje uplatniť techniku prúdového spracovania na úrovni subgrafov.
86
Ádám
4 SYSTÉM DF-KPI Systém DF-KPI [9] vyvíjaný na Katedre počítačov a informatiky Fakulty elektrotechniky a informatiky Technickej univerzity v Košiciach je navrhovaný ako dynamický systém s priamym spájaním operandov. Kombinácia lokálneho CF modelu s globálnym DF modelom umožňuje efektívne organizovať paralelnú implementáciu funkcionálneho programu. Model architektúry počítača DF-KPI je súčasťou komplexného systému DF, ktorý zahŕňa aj podporné komponenty výpočtového prostredia DF pre realizáciu definovaného aplikačného určenia. Štruktúrna organizácia (Obr. 5) modelu architektúry počítača DF-KPI pozostáva z nasledujúcich funkčných jednotiek.
Obr. 5. Systém DF-KPI
Koordinačný procesor (Coordinating Processor; CP) – je určený na riadenie, koordinovanie a spracovanie inštrukcií programu DF, na základe prítomnosti ich operandov, ktoré sa na vstupný port CP.DI koordinačného procesora sprístupňujú buď z jeho výstupného portu CP.DO, resp. z výstupných portov CP.DO iných CP prostredníctvom prepojovacej siete, alebo z údajového frontu a z pamäti rámcov. Štruktúrna organizácia CP je navrhnutá ako dynamický multifunkčný systém, ktorý pozostáva zo segmentov LOAD, FETCH, OPERATE, MATCHING a COPY.
Acta Informatica Pragensia
87
Údajový front (Data Queue Unit; DQU), je jednotka, určená na ukladanie DT, reprezentujúcich operandy, ktoré čakajú na spájanie v priebehu vykonávania programu. Inštrukčná pamäť (Instruction Store; IS) je pamäť inštrukcií programu DF v tvare kódu príslušného DFG. Pamäť rámcov (Frame Store; FS) je pamäť spájacích (párovacích) vektorov, pomocou ktorých CP zisťuje prítomnosť DT na vykonanie operácie definovanej operátorom (uzlom) v DFG. Skrátená definícia formátu položky spájacieho vektora (Matching Vector; MV) v pamäti rámcov je , kde AF (Affiliation Flag) je príznak prítomnosti operanda a V (Value) je hodnota daného operanda v DT. Podporné komponenty systému DF sú potrebné pre vytvorenie reálneho výpočtového prostredia. V danej architektúre ich tvoria: Hlavný počítač (HOST) pre zabezpečenie štandardných funkcií počítačového systému výpočtového procesu DF. Špecializované jednotky slúžia na vytvorenie špecializovaného aplikačného prostredia (virtuálna realita, diagnostika, e-learning). V/V procesory (súčasťou hlavného počítača) pre rýchle priame vstupy/výstupy do modulu DF (štandardné V/V sa realizujú prostredníctvom hlavného počítača).
4.1 INŠTRUKČNÝ FORMÁT Inštrukcie zdrojového kódu programu sú uložené v inštrukčnej pamäti. Každá inštrukcia reprezentuje operátor v DFG. Operátory DFG sa delia na jednovstupové a na N (N≥2) vstupové. V prípade jednovstupových operátorov, vstup tvorí len jeden DT, ktorého prítomnosť spĺňa podmienku vykonateľnosti, t.j. nie je potrebné spájanie operandov. Pre N vstupové operátory platí, že operátor, reprezentujúci inštrukciu DF sa vykoná vtedy a len vtedy, ak sú prítomné všetky vstupujúce DT. Tieto DT následne sú spájané v spájacom segmente na základe MV. Súbor inštrukcií architektúry DF-KPI tvoria inštrukcie reprezentované jednovstupovými operátormi (ACCEPT, IF, KILL, OUT, RET, SEL, UN_OP), dvojvstupovými (BIN_OP, CASE, DEF, GATE, LOAD, SEND, TUP) a M (M≥3) vstupovými (APPLY, CONSTR). Operátor ACCEPT je vstupným operátorom DF programu a podprogramu. Operátor IF reprezentuje programové dvojcestné a operátor CASE viaccestné vetvenie. Na konzumovanie vstupného DT bez odozvy slúži operátor KILL. Jednovstupový operátor OUT je posledným operátorom a RET návratovým operátorom (pod-)programu DF. Operátor SEL vyberá dáta z údajovej štruktúry definovanej operátorom CONSTR. Jednovstupový operátor UN_OP reprezentuje unárnu a dvojvstupový BIN_OP binárnu matematickú operáciu. Operátor DEF slúži na definovanie programovej konštanty. Na vytváranie kópie z údajovej a adresnej časti vstupného DT slúži operátor LOAD, kým operátor TUP vytvára kópie len z údajovej časti DT. Spustenie programu/podprogramu je odštartované operátorom APPLY. Podrobnejší popis týchto operátorov sa nachádza v [9]. Formát inštrukcie (Data Flow Instruction; DFI) zdrojového kódu je nasledovný:
88
Ádám
DFI ::= OC LI {DST, [IX]}n kde OC LI DST IX
- je kód operátora; - literál (napr. počet kópií výsledku); - adresa cieľového operátora výsledku operácie; - index spájania výsledku operácie.
Zápis {DST, [IX]}n definuje možnosť výskytu tejto dvojice 1 až n-krát v DFI, pričom položka [IX] môže ale nemusí (výskyt 0 alebo 1) byť súčasťou DFI. Inštrukcia je identifikovaná a vykonaná na základe adresy obsiahnutej v časti DST dátového tokenu. Formát vstupujúceho DT je definovaný zápisom: DT ::= P T, V MVB {DST, [IX]} kde P T V MVB DST
- je priorita spracovania DT; - typ hodnoty údaja; - hodnota údaja; - bázová adresa spájacieho vektora; - cieľová adresa vstupujúceho DT.
Formát cieľovej adresy vstupujúceho DT je nasledujúci: DST ::= MF IP ADR kde MF IP ADR
- je spájacia funkcia (Matching Function), s definovaným príznakom z množiny {M, B}, M – spájanie (Matching) dvoch DT, B – prechod bez spájania (Bypass); - je vstupný port, s definovanou hodnotou z množiny {L(eft), R(ight)}; - je adresa operátora, ktorý sa aktivuje vstupným DT.
V navrhnutej architektúre sa používa priame spájanie operandov. Je založené na alokovaní spájacieho vektora podľa definície pamäte rámcov a aktivácie bloku kódu (procedúra, volanie funkcie). Aktivovaný spájací vektor je reprezentovaný ako aktivačný záznam v pamäti rámcov. Aktuálna bázová adresa sa označuje ako MVB = BACT. Formát spájacieho vektora v pamäti rámcov je nasledovný: FS[BACT + H + IX + 1] ::= RC, MVS BOLD DSTRET D{[BNEW]{D}} kde BACT H MVS RC BOLD
- je ukazovateľ na začiatok aktuálneho záznamu; - počet slov rezervovaných pre hlavičku záznamu; - veľkosť spájacieho vektora; - počítadlo referencií; - smerník na starý aktivačný záznam;
Acta Informatica Pragensia
89
DSTRET - cieľ návratu; BNEW - bázová adresa nového aktivačného záznamu; D - operand definovaný hodnotou, príznak prítomnosti AF, typ hodnoty T. K spájaniu DT dochádza pri spracovaní operandov vstupujúcich do N-vstupových operátorov. RC je nastavené podľa veľkosti spájacieho vektora v čase kompilácie. Po realizácii spájania vstupných DT sa RC dekrementuje. Ak RC = 0, tak sa spájací vektor v pamäti rámcov uvoľní. Proces spájania spočíva v uložení hodnoty operanda v alokovanom priestore pamäti rámcov až do okamihu, kedy sú prítomné všetky vstupné operandy operátora. V takomto prípade sa všetky operandy načítajú a operátor sa vykoná, pretože je splnená podmienka vykonateľnosti.
4.2 SPÁJANIE OPERANDOV Nositeľom informácie o stave výpočtu je DT, zobrazovaný na hranách uzlov DFG v tvare plného krúžku. Jeho umiestnenie na vstupných hranách uzlov (operátorov) vyjadruje prítomnosť operandov a definuje vykonateľnú inštrukciu. Umiestnenie DT na výstupnej hrane uzla vyjadruje prítomnosť výsledku operácie definovanej operátorom vykonanej inštrukcie. Vykonanie DF grafu sa uskutočňuje na základe pravidiel vykonateľnosti (inštrukcia je vykonateľná, ak všetky jej operandy sú prístupné) a aktivácie (inštrukcia je aktivovaná, keď je vykonateľná a zdroje na jej aktiváciu sú k dispozícii) inštrukcií programu DF. Jeden z najvýznamnejších krokov, vychádzajúc z dynamického modelu DF, je priame spájanie operandov [9]. Koncepcia priameho spájania operandov spočíva v eliminácii výpočtovo (časovo) náročných procesov spojených s asociatívnym hľadaním operandov. V schéme priameho spájania operandov v navrhovanej architektúre DF-KPI, položky spájacieho vektora v pamäti rámcov sa alokujú dynamicky pre každý jeden token generovaný počas vykonania DFG. Aktuálne umiestnenie spájacieho vektora v pamäti rámcov je určené počas kompilácie programu, kým bázová adresa pamäti rámcov je určená po spustení programu DF. V schéme priameho spájania operandov, sa dá každý výpočet popísať pomocou smerníka na inštrukciu (ADR) a smerníka na spájací vektor v pamäti rámcov (MVB). Dvojica <MVB, ADR> je súčasťou hlavičky DT. Typickou akciou je hľadanie páru DT v pamäti rámcov. Po príchode operanda do koordinačného procesora, sa podľa indexu spájania zistí, či už je v pamäti rámcov prítomný spoluvstupujúci operand operátora. V prípade, že tam ešte nie je, uloží sa operand v pamäti rámcov do spájacieho vektora určeného bázovou adresou operanda do položky danej indexom IX. Riadenie procesu spájania operandov na vstupe operátora ovplyvňuje proces spracovania a generovania výsledku na jeho výstupe. Použitím prekladača programu do DFG s dopredným prehľadávaním, ktorý umožňuje detegovať a eliminovať redundantné výpočty, zmeniť poradie spracovania tokenov, riadenie je možné definovať ako prechod DT po hranách DFG (Obr. 6) medzi operátorom „produkujúcim“ (P – producent) a operátorom „konzumujúcim“ (K - konzument) DT. Tento proces je definovaný nasledujúcimi kombináciami prechodu DT po hranách medzi operátormi P a K grafu toku dát, ktoré môžu byť jednovstupové, dvojvstupové, resp. riadiace.
90
Ádám
Obr. 6. Variácie konfigurácie P-operátorov a K-operátorov v procese spájania operandov
Pri spracovaní programu DF nám vznikajú nasledujúce typy spojení operátorov: PJ/KJ – P jednovstupový, K jednovstupový (Obr. 6a). Je to konfigurácia ktorá nevyžaduje spájanie operandov. Dátový token produkovaný producentom P je pohltený konzumentom K bez aktivácie procesu spájania. PJ/KD – P jednovstupový, K dvojvstupový (Obr.6a). Vyžaduje spájanie operandov v operátori K. PD/KJ – P dvojvstupový, K jednovstupový (Obr.6b). K spájaniu dôjde v operátori P. PD/uKJ – P dvojvstupový, u×K jednovstupový (Obr.6c). Po vykonaní inštrukcie definovanej dvojvstupovým operátorom P, výsledok je distribuovaný medzi u jednostopovými operátormi K. K spájaniu dôjde len v operátori P. PD/vKD – P dvojvstupový, v× K dvojvstupový (Obr. 6d). Výsledok realizácie dvojstupového operátora P, je rozoslaný na v dvojvstupový operátor K. Proces spájania je aktivovaný tak pre operátor P ako aj pre operátor K. PD/uKJvKD – P dvojvstupový, u×K jednovstupový, v×K dvojvstupový (Obr. 6e). Výsledok realizácie dvojstupového operátora P, je rozoslaný na u jednovstupový a na v dvojvstupový operátor K. Proces spájania je aktivovaný tak pre operátor P ako aj pre dvojvstupové operátory K. Z uvedených možných kombinácií P a K operátorov proces riadenia spájania operandov bude opísaný vzhľadom na konfiguráciu z obrázka 6a.
4.3 SPRACOVANIE OPERÁTOROV TYPU PS/CS A PS/CD Koordinačný procesor (CP) predstavuje dynamický prúdový systém, ktorý umožňuje prechádzať medzi stavmi (stupňami) prúdovej funkčnej jednotky (L – load, M – matching, C – copy F – fetch, O – operate) v rôznom poradí. Prechody medzi stavmi na základe riadiaceho mikroprogramu pri riadení procesu spájania operandov sú znázornené pomocou stavového diagramu (Obr. 7).
Acta Informatica Pragensia
91
Obr. 7. Stavový diagram spracovania dátových tokenov v architektúre DF-KPI
Na obrázku 7 majú vyznačené riadiace signály nasledujúci význam: CP_free – indikuje obsadenosť alebo prístupnosť CP; GetDT – čítanie tokenu z DQU; PutDT – zápis tokenu do DQU; Init – inicializácia prúdových stupňov. CP je v stave LOAD, ak očakáva alebo sprístupňuje operand z DQU prostredníctvom riadiaceho signálu GetDT alebo sprístupňuje operand z výstupného portu CP.DO koordinačného procesora, alebo z výstupných portov CP.DO iných CP, prostredníctvom prepojovacej siete (IN). Signál Init slúži ku počiatočnej inicializácií CP. V stave FETCH CP číta kód operácie definovaný príslušnou inštrukciou (operátorom), ktorej adresa je súčasťou vstupujúceho DT. Príslušná inštrukcia je adresovaná v IS. Potom je aktivovaný stupeň OPERATE. V stave OPERATE CP zabezpečí vykonanie inštrukcie podľa VM CF. Výsledok vykonanej inštrukcie predstavuje vstupný operand inej inštrukcie a preto sa tento výsledok posiela do spájacieho segmentu v ktorom sa vykonáva hľadanie partnerského operandu. Ak pre vstupný operand sa nenájde partnerský operand, tak tento stav je zaznamenaný v príslušnom spájacom vektore (MV) na pozícií, ktorá určuje dostupnosť operandu (Affiliation Flag; AF). V opačnom prípade, ak partnerský operand je dostupný (jeho pozícia je zaznamenaná v MV a tá určuje miesto uloženia v pamäti rámcov FS), tak sa načíta a spracujú sa v procesnej elementárnej jednotke (PEU). Výsledok spracovanej operácie (čo je opäť vyjadrený vo forme DT) je preposlaný na vstup ďalšieho operátora (, resp. na vstupy ďalších operátorov, pokiaľ bol označený viac ako jeden cieľový operátor vo formáte vstupujúceho DT), pokiaľ koordinačný procesor CP nie je zaneprázdnený (CP_free = 1, čo je ekvivalent zápisu isFree(LOAD) = 1) iným výpočtom. Ak je CP zaneprázdnený (CP_Free = 0), výsledný DT je prostredníctvom prepojovacej siete odoslaný na spracovanie inému nezaneprázdnenému CP. Ak nastane prípad, že všetky CP sú zaneprázdnené, potom výstupný operand (výsledný DT) sa ukladá do dátovej fronty (DQU), čo sa aktivuje pomocou kontrolného signálu PutDT. Ak výsledok párovania je neúspešný, operand je ukladaný do vybranej položky príslušného spájacieho vektora, na základe kontrolného signálu spájacej funkcie MF=M. Stav OPERATE môže byť rozložený na niekoľko dielčich krokov, keď výsledok operácie ukončovanej v stupni OPERATE sa odosiela viac ako jednému nasledujúcemu operátoru. K vykonaniu týchto dielčích krokov sa využíva stav COPY [9]. Mikroarchitektúra prúdovej funkčnej jednotky určenej na riadenie procesu spájania operandov pre typ operátorov PJ/KJ a PJ/KD je znázornená na obrázku 8.
92
Ádám
Obr. 8. Prúdová jednotka pre spracovanie operátorov typu PJ/KJ a PJ/KD
Kvôli zvýšeniu priepustnosti a koeficientu vyťažiteľnosti prúdovej funkčnej jednotky medzi jej jednotlivé stupne boli vložené medzistupňové pamäte typu FIFO s nasledujúcou špecifikáciou:
Medzi stupne L a F → register LFR Medzi stupne F a O → register FOR
Mikroprogramové riadenie vykonania operátorov jednovýstupových operátorov DFG sa uskutočňuje prostredníctvom mikrooperácií (Obr. 9) pre jednotlivé stupne multifunkčnej prúdovej jednotky (Obr.8) koordinačného procesora.
Acta Informatica Pragensia
93
Obr. 9. Mikroprogram pre spracovanie operátorov typu PJ/KJ a PJ/KD
Funkcia isFree(X), testuje príznak obsadenosti segmentu X. Mikrooperácie, ktoré môžu byť paralelne vykonané, sú uložené do jedného príkazového bloku vývojového diagramu. Inicializácia koordinačného procesora sa uskutočňuje nastavením príznaku Init := 1 v štartovacej inštrukcii programu DF. V prípade, že ďalší segment, segment FETCH, je voľný, načíta sa DT do medzipamäte LFR (load/fetch register), uvoľní sa segment LOAD a aktivuje sa príjem ďalších DT do koordinačného procesora. Na základe adresy LFR.DST.ADR, sa určí adresa DF operátora, ktorý sa načíta z inštrukčnej pamäti do medzipamäte FOR (fetch/operate register). V prípade, že segment OPERATE je
94
Ádám
neaktívny (isFree(Operate) = 1), začne sa spracovanie operátora načítaného z FOR. Výsledok spracovanej operácie (token) je dostupný pre spracovanie operandu v ďalšom operátore, pokiaľ CP nie je zaneprázdnený iným výpočtom. Ak CP je zaneprázdnený, tak sa operátor pošle pomocou prepojovacej siete na spracovanie inému nezaneprázdnenému CP. Ak všetky CP sú zaneprázdnené, token sa ukladá do DQU.
5 ZÁVER Snaha skonštruovať vysokovýkonné systémy vedie k neustálemu skúmaniu a využívaniu výhod tej ktorej architektúry alebo k vývoju novej, u ktorej sa dopredu predpokladá zvýšená výkonnosť, aby uspokojovala a dokonca aj prekračovala súčasné nároky na výkon. Jedným z východísk architektúry počítača a princípu jeho činnosti je spôsob organizácie a riadenia výpočtového procesu - spracovania informácií. Výpočtový proces je reprezentovaný postupnosťou stavov, k zmene ktorých dochádza v dôsledku vykonávania inštrukcií programu, na základe ktorého sa výpočtový proces v počítači organizuje. Organizácia výpočtového procesu predstavuje popis uskutočňovania týchto zmien prostredníctvom definovania podmienok pre vykonávanie inštrukcií a ich dôsledkov. Z organizácie výpočtového procesu vyplýva príslušný riadiaci mechanizmus. V článku uvedená architektúra je založená na výpočtovom modeli „data flow“, v ktorom riadenie výpočtu je založené na spracovaní toku dát. Základným prvkom navrhovaného DF-KPI architektúry je koordinačný procesor (CP), ktorý je zodpovedný za riadenie a organizáciu vykonávania inštrukcií. Štruktúrna organizácia CP je navrhnutá ako dynamický multifunkčný systém. Pri vykonávaní operácií môže CP prechádzať rôznymi stavmi, v dôsledku čoho táto jednotka predstavuje dynamický prúdový systém. Opisovaná architektúra DF-KPI je jedinečná v kontexte dynamických hybridných CF/DF architektúr nakoľko spája prednosti zreťazených a hrubozrnných hybridných architektúr. Umožňuje vytvárať subgrafy v DF programe pomocou techniky farbenia grafu, čím vzniká možnosť si zvoliť optimálnu granularitu paralelizmu a zároveň umožňuje uplatniť techniku prúdového spracovania na úrovni subgrafov. Uplatnenie princípov prúdového spracovania skomplikuje úlohu spájania operandov na vstupe operátorov. S cieľom zefektívniť proces spájania operandov sa použila koncepcia priameho spájania operandov. Priame spájanie operandov je založené na použití pamäti explicitných aktivačných značiek (dedikovaná časť pamäte CP zvaná aktivačný rámec). Myšlienka zavedenia tejto pamäti vychádza z poznania, že pri spracovaní subgrafov, ktoré sú súčasťou cyklov, resp. rekurzií, nie je nutné subgrafy označiť za každým novou farbou. Počas prúdového spracovania prechod a poradie prechodu medzi jednotlivými stavmi CP je podmienený typom spracovaného operátora pri interpretovaní prúdu operandov. Z možných typov operátorov, článok uvádza mikroprogramové riadenie pre operátory typu PJ/KJ a PJ/KD. Navrhnutý algoritmus je optimalizovaný na rýchlosť spracovania týchto operátorov. Z algoritmu vyplýva, že jeden „inštrukčný cyklus“ spracovania týchto operátorov vyžaduje 8 strojových cyklov. Počet potrebných cyklov zároveň definuje počet fáz pri prúdovom spracovaní. Z teórie prúdového spracovania vieme, že zrýchlenie spracovania inštrukcií (,resp. programových entít) je ekvivalentné počtu zreťazených fáz, čo pre architektúru DF-KPI znamená 8-násobné zrýchlenie voči sekvenčnému spracovaniu. Prezentovaný systém DF-KPI je ešte „len“ v štádiu vývoja, preto toto číslo podľa môjho očakávania nie je ešte konečné.
Acta Informatica Pragensia
95
POĎAKOVANIE Táto práca bola podporovaná Agentúrou na podporu výskumu a vývoja na základe zmluvy č. APVV-0008-10“.
6 SEZNAM POUŽITÝCH ZDROJŮ [1]
ARVIND – CULLER, D. E. Dataflow Architectures. In Annual Review of Computer Science, Vol. 1, CA: Annual Reviews Inc. Palo Alto, 1986. pp. 225-253. ISBN 0-8243-3201-6.
[2]
CARLSTRÖM, J. – BODÉN , T. Synchronous Dataflow Architecture for Network Processors. In Micro IEEE, Volume. 24, Issue 5, 2004. pp. 10-18. ISSN 0272-1732. Dostupné z: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.229.1244&rep=rep1&type=pdf
[3]
DENNIS, J. B. Data-Flow Supercomputers. In Computer , Volume 13, Issue 11, 1980, pp. 4856.
[4]
FRANKLIN, A. D at al. Sub-10 nm Carbon Nanotube Transistor, In Nano Letters, Volume 12, Issue 2, 2012. pp. 758-762.
[5]
GURD, J. R. – KIRKHAM, C. C. – WATSON, I. The Manchester Prototype Data-Flow Computer. In Communication of the ACM, Volume 28, Number 1, 1985. pp. 34-52. Dostupné z: http://courses.cs.washington.edu/courses/csep548/05sp/gurd-cacm85-prototype.pdf
[6]
GYÖRÖK, GY. – MAKÓ, M. – LAKNER, J. Combinatorics at Electronic Circuit Realization in FPAA. In Acta Polytechnica Hungarica, Volume 6, No. 1, 2009. pp. 151-160. ISSN 17858860. . Dostupné z: http://www.uni-obuda.hu/journal/Gyorok_Mako_Lakner_17.pdf
[7]
GYÖRÖK, GY. The FPAA realization of analog predictive circuit. In 8th IEEE International Symposium on Applied Machine Intelligence and Informatics: SAMI 2010, 2010. pp. 105-108. ISBN 978-1-4244-6424-1.
[8]
JAMIL, T. – DESHMUKH R.G. Design of a Tokenless Architecture for Parallel Computations Using Associative Dataflow Processor. In Proc. of Conf. on IEEE SOUTHEASTCON ´96, Briging Together Education, Science and Technology, Tampa, FL, USA 1996. Pp. 649 - 656. ISBN 0-7803-3088-9.
[9]
JELŠINA, M a kol. Architektonické riešenie počítačového systému data flow KPI. Košice: Elfa s.r.o., 2004. ISBN 80-89066-86-0.
[10]
KOPJÁK J. – KOVÁCS, J. Event-driven control program models running on embedded systems. In 6th IEEE International Symposium on Applied Computational Intelligence and Informatics, Romania, 2011. pp. 323-326. ISBN 978-1-4244-9109-4.
[11]
KOPJÁK J. – KOVÁCS, J. Timed cooperative multitask for tiny real-time embedded systems. In Proc. of IEEE 10th Jubilee International Symposium on Applied Machine Intelligence and Informatics, SAMI 2012, Slovakia, 2012. pp. 377-382. ISBN 978-145770197-9.
[12]
MADOŠ B. – BALÁŽ, Data FLow Graph Mapping Techniques of Computer Architecture with Data Driven Computation Model. In Proc. of IEEE 9th International Symposium on Applied Machine Intelligence and Informatics, SAMI 2011, Slovakia, 2011. pp. 355-359. ISBN 978-1-4244-7428-8.
96
Ádám
[13]
SIMA, D. – FONTAIN, T. – KACSUK, P. Korszerű számítógép-architektúrák tervezéstérmegközelítésben. Szak Kiadó Kft., Bicske, 1998. ISBN 963-9131-09-1.
[14]
SWANSON, S. – MICHELSON, K. – SCHWERIN, A. – OSKIN, M.: WaveScalar. In Proc. of the 36th International Symposium on Microarchitecture, 2003. pp. 291-302, ISBN 0-76952043-X.
[15]
VERDOSCIA, B. – VACARRO, R. ALFA. A Static Data Flow Architecture. In Proceedings of Fourth Symposium on the Frontiers of Massively Parallel Computation, McLean, VA, USA, 1992. pp. 318-325. ISBN 0-8186-2772-7.
[16]
VOKOROKOS, L. Princípy architektúr počítačov riadených tokom údajov. Košice: Copycenter, spol. s.r.o., 2002. ISBN 80-7099-824-5.
[17]
WINTZLAW, D. – GRIFFIN, P. – HOFFMANN, H. at al. On-Chip Interconnection Architecture of the Tile Processor. In IEEE Micro, vol. 27, no. 5, 2007. pp. 15-31.
Acta Informatica Pragensia 2(2), 2013, 97–111, DOI: 10.18267/j.aip.27 Online: aip.vse.cz
Sekce / Section: Recenzované stati / Peer-reviewed papers
Inovativní přístup k rozvoji Informačního managementu magisterského oboru studia na VŠE v Praze Vlasta Střížová1, Zdeněk Smutný1 1
Katedra systémové analýzy, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected]
Abstrakt: Rostoucí globalizace, konkurence, ale i ekonomická situace u nás i ve světě, silný rozvoj technologií a rychlé změny v organizacích jsou jen malým výčtem důležitých faktorů, proč se stávají inovativní myšlenky a přístupy stále důležitější i na univerzitách. Cílem tohoto příspěvku je přispět k inovaci magisterského oboru studia Informační management na VŠE v Praze. Příspěvek vychází z teoretických přístupů k pojetí informačního managementu a zároveň mapuje a porovnává současný stav a přístupy vybraných univerzit k magisterskému studijnímu oboru Informační management. Doporučení vycházejí zejména z průzkumu u absolventů oboru Informačního managementu z Fakulty informatiky a statistiky VŠE v Praze, kteří jsou delší dobu zaměstnaní v praxi. Klíčová slova: inovace, informační management, magisterský obor studia Title: An innovative approach to the development of the master study of the Information management at the University of Economics in Prague Abstract: Increasing globalization, competition, but also the economic situation in our country and in the world, a powerful development of technology and rapid changes in organizations are just a few of the important factors why an innovative ideas and approaches become increasingly important for the universities. The aim of this paper is to contribute to the innovation of the master study of the Information management (field of study) in the University of Economics in Prague. The presentation is based on the theoretical approaches to the concept of the information management and at the same time it maps and compares the current situation and approaches of the selected universities to their master study in the Information management. Recommendations are primarily based on the survey of the graduates of the Information management from the Faculty of informatics and statistics, University of Economics in Prague, who have been employed in practice for longer time. Keywords: Innovation, Information management, Master's field of study
98
Střížová, Smutný
1 ÚVOD Vyjdeme-li z mezinárodních zkušeností, není inovace výhradně výsadou podniků výroby a služeb, ale je i důležitou součástí práce univerzit. Pohled OECD [13] na inovaci lze aplikovat i na univerzity a to umožňuje chápat inovaci v širokém slova smyslu jako zavedení zcela nového nebo významně zlepšeného produktu nebo služby, procesu, marketingu, organizačních postupů, organizace práce a externích vztahů. Může být založena na jedné významné změně nebo celé řadě malých postupných změn. Výzvy, příležitosti, ale i ohrožení, které před univerzitami stojí, jsou dány řadou faktorů. Jedná se například o rostoucí konkurenci, měnící se požadavky trhu pracovních sil, demografické faktory, zásahy státu do vzdělávací soustavy, požadavky zaměstnavatelů, možnost vzniku „nových trhů“, tlak na snižování nákladů – resp. investic ze strany státu do vzdělávání, apod. S tím koresponduje také aktuální zpráva Ministerstva školství, mládeže a tělovýchovy o stavu vysokého školství v ČR [12], kde se odráží současný stav včetně existence 74 vysokých (26 veřejných, 2 státní a 46 soukromých). V následujících letech bude také klesat populace věkových ročníků 19–20, přičemž se bude zvyšovat podíl starších ročníků, které budou nově začínat studium (tzv. odložená poptávka po studiu). [9] V takto konkurenčním prostředí jsou inovativní přístupy jednotlivých vysokých škol důležité pro jejich budoucí rozvoj potažmo samotnou existenci. Vedle takto konkurenčního prostředí je důležitým faktorem ovlivňující úspěšnost či prestiž jednotlivých oborů také uplatnění jejich absolventů. Platí to i pro absolventy informaticky orientovaných oborů. Zásadním kritériem při uplatnění absolventů v komerčních firmách jsou jejich znalosti nabyté při studiu. V oblasti ICT je tento stav v České republice neutěšený, neboť „většina bakalářů (přibližně 85 %) nemá znalosti potřebné pro vstup do praxe jakožto kvalifikovaného pracovníka bez nutnosti dalšího finančně náročného tréninku. Na magisterském stupni vzdělání se jedná přibližně o 40 % absolvent.“ [4] Z těchto důvodů je potřeba kontinuální sebereflexe vysokých škol v oblasti vzdělávání a následného uplatňování ICT specialistů v praxi. K vytvoření strategicky zaměřeného programu budování inovační výkonnosti mohou na univerzitách vést následující kroky: -
Realisticky vyhodnotit současný stav (interní pracovníci, podniky a organizace – „odběratelé“ absolventů, absolventi) Analyzovat požadavky (vzniklé z vyhodnocení a současných trendů v ČR i v zahraničí) Plánovat změnu s dostatečným předstihem Připravit změnu Předložit změnu ke schválení (vědecká rada fakulty a Akreditační komise vlády ČR) Zavést změnu.
Z hlediska typu inovací se může jednat podle [1] a [13] o inovace produktové, procesní, marketingové a organizační. Při jejich užití v inovaci studijního oboru je možné jednotlivé typy inovací charakterizovat následovně: Produktová inovace – inovace studijního oboru, tzn. skladby a obsahu předmětů, jejichž charakteristiky nebo možnosti využití jsou zcela nové nebo výrazně zlepšené.
Acta Informatica Pragensia
99
Procesní inovace – zavedení nové metody výuky nebo distribuce znalostí a dovedností, tedy o změny postupů, využití technologií, apod. Marketingová inovace – propagace oboru využitím dosud nevyužitých nových médií nebo techniky s důrazem na lepší naplnění potřeb „klientů“ - absolventů středních škol doma i v zahraničí a potenciálních zaměstnavatelů nebo oslovení zahraničních studentů apod. Organizační inovace – zavedení nové organizační metody do postupů, pracovních míst, vnějších vztahů – např. nový přístup k získávání znalostí, intenzivní spolupráce na studentských projektech s jinými (domácími i zahraničními) univerzitami, spolupráce na řešení projektů s konkrétními podniky apod. Cílem inovativních přístupů k magisterskému studijnímu oboru Informační management je mimo jiné zvýšení jeho „image“ a přínosu pro jeho uživatele. Výsledek je ovlivněn jasnou komunikací cílů a marketingem, pružností ve smyslu rychlé reakce na novinky a změny, zvyšováním produktivity výstupů např. v těsnějším propojení „teorie a praxe“, využitím nových technologií a sociálních sítí ve výuce. Z pohledu členění inovací na přírůstkové, radikální a přelomové [7, str. 24–27] (členění podle novosti výsledků) se v souvislosti s reakreditací studijního oboru jedná zejména o první typ inovace, tedy přírůstkovou inovaci, ve které dochází k modifikaci, zdokonalení, zjednodušení, konsolidaci nebo posílení stávajících předmětů, procesů, či organizačních nebo marketingových metod. Také zahraniční univerzity se daným tématem intenzivně zabývají. Jako příklad je zvolena renomovaná škola Harvard Business School, která realizovala výzkum výukových programů a metod. Výzkum [3] přinesl závěr, že je třeba zaměřit pozornost nejen na výuku v učebnách, ale na získávání skutečných zkušeností vyžadujících jednání a větší spolupráci. Absolventi budou vedeni k převodu znalostí do schopnosti „umět udělat“ – tedy aplikovat je. Kromě rekonstrukce vzdělávacích programů byla zřízena také nová inovační laboratoř, kdy studenti pracují po určitou dobu v různých destinacích v různých organizacích a následně v týmech řeší projekty nových produktů nebo služeb pro organizace.
2 POUŽITÉ VÝZKUMNÉ METODY V tomto příspěvku nejdříve využíváme komparační přístup z mezinárodního hlediska. Právě nutnost mezinárodní konkurenceschopnosti českého vysokého školství nás přivedla ke komparaci tohoto oboru se zahraničními univerzitami. Srovnáváme pojetí informačního managementu na VŠE v Praze s dvěma vybranými univerzitami v USA, kde má tento obor dlouholetou tradici. Univerzity v USA jsme vybraly z důvodu sledování trendů v této oblasti, neboť lze oprávněně předpokládat, že právě zde se budou odrážet aktuální globální nároky na absolventy oboru informační management. Myslíme si, že právě tento srovnávací vhled do této problematiky v současnosti chybí, neboť příspěvky směřované na nároky firem a uplatnitelnost absolventů ICT oborů v ČR jsou dnes k dispozici (např. zmíněné příspěvky [4], [5] a [11]).
100
Střížová, Smutný
Při níže uvedené komparaci jsme využili studijní plány jednotlivých oborů včetně doprovodných textů, abychom získali širší pohled na výsledného absolventa jednotlivých univerzit a mohli zjištěné rozdíly dále diskutovat. Demonstrujeme zde různé přístupy k naplňování kompetencí absolventů v USA a EU, což úzce souvisí i se samotným pojetím informačního managementu. Různé přístupy k němu definujeme ve třetí kapitole. Následuje dotazníkový průzkum mezi absolventy našeho oboru, kteří ukončili studium v letech 2006–2012. Na základě takto realizovaného kvantitativního výzkumu a získaných dat jsme provedli jejich vyhodnocení a dále jsme je interpretovali a představili v širších souvislostech v následné diskuzi směrem k inovativnímu přístupu k danému oboru.
3 POJETÍ A CHARAKTERISTIKY INFORMAČNÍHO MANAGEMENTU Informační management (nebo také řízení informací), využívá podle Wilsona [18] manažerské principy k získávání, organizaci, řízení, distribuci a používání informací za účelem efektivního fungování organizací všech typů. Podle Vymětala [16] lze informační management definovat jako transdisciplinárně pojatý soubor poznatků, metod a doporučení systémových přístupů a informatiky, které pomáhají účelně realizovat informační procesy manažerského myšlení a k dosažení podnikatelských cílů organizace. Business Dictionary [17] definuje informační management jako aplikaci technik řízení ke sběru informací, jejich komunikaci uvnitř a vně organizace a jejich zpracování tak, aby manažeři mohli rychleji a lépe rozhodovat. Informační management je podle PC Magazínu [19] disciplína, která analyzuje informace jako organizační zdroj. Pokrývá definování, užití, hodnotu a distribuci dat/ informací v organizaci, ať jsou zpracovány pomocí počítačů či nikoli. Ohodnocuje druhy dat/informací organizace pro jejich efektivní fungování a pokrok. Z výše uvedených charakteristik je patrné, že se v pojetí informačního managementu setkáváme s nejednoznačností výkladu. Nejednoznačnost výkladu podle Vodáčka a Rosického [15] vyplývá zejména z nejednoznačností vymezení pojmu management a pojmu informace a permanentně se vyvíjejícím chápáním pojmu samého. Z tohoto důvodu budeme dále vycházet z aktuálního chápání informačního managementu dle Doucka [6] a budeme jej dále porovnávat s jeho pojetím na vybraných univerzitách v USA v následující části.
3.1 POJETÍ INFORMAČNÍHO MANAGEMENTU NA VYBRANÝCH UNIVERZITÁCH Katedra systémové analýzy Fakulty informatiky a statistiky VŠE v Praze chápe Informační management jako obor, který pokrývá všechny aspekty práce s informacemi pro zvýšení účinnosti (efektivity) organizací v různých zaměstnaneckých sektorech. Informační management v pojetí katedry systémové analýzy je chápán v nejširším pojetí „kdy systémové přístupy umožňují zkoumat aspekty řízení podpory hlavních a vedlejších procesů podniků v mnoha souvislostech a s přihlédnutím k co největšímu počtu jejich vzájemných vazeb a se sledováním dalších vazeb směrem k okolí
Acta Informatica Pragensia
101
podniku. Jedná se tedy o pojetí informačního managementu s vysokou komplexitou zkoumaných jevů“ [6, str. 16]. Cílem studijního oboru je připravit studenty jako informační profesionály, tzn. vybavit je schopnostmi potřebnými pro všestranné manažery, schopné práce v různých typech organizací a vybavené dovednostmi v informačních technologiích se zvláštním zaměřením na podnikové informační systémy. Obor je proto koncipován tak, aby připravil absolventy pro řadu rolí, zahrnujících řízení podnikových informací a navazující služby. Za nezbytné znalosti, schopnosti a dovednosti, zúročené v odpovědnostech informačních manažerů lze dle katedry systémové analýzy Fakulty informatiky a statistiky VŠE v Praze považovat zejména: informační strategie a formulování politiky, analýza a design architektury informačního systému, řízení informačních zdrojů, fungování organizace z manažerského i provozního pohledu, efektivní komunikace, průběh rozhodování a metody přípravy a hodnocení rozhodnutí, kritické a kreativní myšlení, vedení lidí a týmů, etika, metody a techniky modelování a analýzy požadavků komplexních systémů a jejich aplikace, projektový management (včetně zhodnocení plánování, zabezpečení zdroji, monitorování vývoje a sledování pokroku, kvality a řízení rizik), inovace různých typů, příležitosti a hrozby plynoucí z okolí organizace, řízení změn v organizaci, techniky pro analýzu informačních potřeb, jejich užití a zajištění, metody rozhodování a kontroly. Univerzita v Oregonu [2] chápe studium na oboru Informační management jako propojení čtyř klíčových komponentů: Informační management (zaměření na informační zdroje, komunikaci a nástroje řízení), Business management (zaměřuje se na aspekty strategií řízení organizací a organizační struktury), Informační design (se zaměřením na identifikaci, organizaci a prezentaci informací), Aplikovaný výzkum (je zacílen na rozvoj psaní a použití výzkumných metod v souvislosti se závěrečnou diplomovou prací). Univerzita ve Washingtonu [8] v oboru Informačního managementu formuje vedoucí pracovníky, kteří budou vědět, jak řídit informace a tvořit informační systémy, aby uspokojili organizační potřeby a byli schopni měnit informace a technologické zdroje dneška do zdrojů změny, růstu a inovací. Absolventi mají zásadní analytické a řídící dovednosti nutné zejména pro vedení komplexních informačních projektů. Z výše uvedených charakteristik je patrné, že přístup k oboru Informačního managementu je (alespoň na zkoumaných univerzitách) velmi podobný a zahrnuje jak oblast informací a práci s nimi, tak různé aspekty řízení a fungování organizací, informačních systémů a projektového řízení. Lze tedy konstatovat, že pojetí magisterského studijního oboru Informační management na VŠE v Praze je adekvátní pojetí v zahraničí.
3.2 POROVNÁNÍ SKLADBY PŘEDMĚTŮ VYUČOVANÝCH NA VYBRANÝCH UNIVERZITÁCH Vysoká škola ekonomická v Praze, obor Informační management magisterského studia má ve studijním programu zařazené následující povinné a oborově volitelné předměty, viz Tabulka 1. Současné studium je určeno převážně pro následující manažerské profese: Manažer informatiky ve společnosti (CIO), Manažer rizik, Projektový manažer, Obchodní manažer a další cílové profese: Business analytik, Business konzultant, Auditor informačních systémů.
102
Střížová, Smutný
Povinné předměty Informační management Systémová dynamika Organizace a informace Systémy pro podporu rozhodování Optimalizace podnikových procesů Řízení projektů Diplomový seminář
Oborově volitelné předměty Audit informačních systémů Prezentace a komunikace informací Informatizace: lidé, technologie a globalizace Úvod do teorie systémů
Teorie a techniky procesního modelování Informace a média Nová média a sociální sítě Trendy v informačním managementu II
Trendy v informačním managementu I Řízení informačních systémů (anglicky) Úvod do řízení projektů
Trendy IS/ICT Enterprise Computing: servisně orientované standardy a architektury Počítačové a informatické právo
Tabulka 1: Povinné a oborově volitelné předměty oboru Informační management na VŠE v Praze
Univerzita ve Washingtonu, vymezuje v magisterském studijním oboru Informační management jako hlavní části: strategické plánování, design systémů, vedení organizací, informační management, informační technologie. V Tabulce 2 jsou uvedeny hlavní kurzy spadající do oblasti informační, oblasti managementu a oblasti propojující znalosti.
Hlavní kurzy „Informační“ potřebné pro analýzu a organizování informací Metody designu pro interakci a systémy Informační systémy a modelování pomocí XML
Koncepční design databáze
Hlavní kurzy „Managementu“ základ dovedností v užívání informací jako nástroje řízení v organizacích Politiky, právo a etika v informačním managementu
Integrační kurzy – propojující znalosti Podstata informačního managementu
Řízení informací v organizacích
Systémy vyhledávání informací
Informace a řízení změny
Terénní výzkum v informačním managementu (praktické aplikace konceptů v praxi) Plánování projektu Podílníci (stakeholders), informace a technologie
Tabulka 2: Kurzy hlavních oblastí studijního oboru informační management na Univerzitě ve Washingtonu.
Univerzita v Oregonu, uvádí pro obor magisterského studia Informační management čtyři klíčové oblasti. Předměty zařazené v jednotlivých oblastech jsou uvedeny v Tabulce 3.
Klíčová oblast Informační management
Klíčová oblast Business Management
Řízení dat a komunikace
Řízení organizací
Klíčová oblast Informační Design Informační design a komunikace
Informační systémy a management
Manažerské účetnictví pro rozhodování
Trendy v informačním designu
Projektový management
Marketing, management a plánování
Řízení informačních aktiv
Klíčová oblast Aplikovaný výzkum Metody výzkumu Závěrečná práce – podpora při výběru a zpracování výzkumných témat závěrečných prací
Acta Informatica Pragensia
103
Volitelné předměty: Podnikové plánování, Modelování dat, Podniková etika, Podnik 2.0 a Social computing, Informační architektura, Informační technologie a Etika, Význam finančních dat, Řízení bezpečnosti informačních technologií a informačních systémů, Proces versus praxe (jak věci dělat), Search marketing, Systémové analýzy, Udržitelný business, Semantický web Tabulka 3: Kurzy klíčových oblastí magisterského studijního oboru Informační management na Univerzitě v Oregonu.
Struktura předmětů je na výše uvedených univerzitách obdobná a studijní obor na VŠE v Praze je z velké části pokrývá, i když pod jinými názvy. Za vhodné možnosti rozšíření nabídky zejména v oborově volitelných kurzech lze uvažovat např. o manažerském účetnictví pro rozhodování, marketing management a plánování, význam finančních dat nebo některé „informační“ kurzy Univerzity ve Washingtonu.
4 VÝZKUM U ABSOLVENTŮ MAGISTERSKÉHO OBORU INFORMAČNÍ MANAGEMENT NA VŠE
STUDIJNÍHO
Výzkum probíhal v období listopad – prosinec 2012. Osloveno bylo celkem 220 absolventů studijního oboru Informační management z let 2006–2012. Výzkumu se zúčastnilo 74 z oslovených absolventů, což činí 33%. Jsme si vědomi možného zkreslení výsledku průzkumu daného vzorkem respondentů, přesto to pokládáme za hodnotnou sondu mezi absolventy. Cílem výzkumu bylo přispět k inovaci studijního oboru, která povede k růstu jeho prestiže v domácím i mezinárodním prostředí, k vyšší kvalitě absolvujících studentů a k růstu poptávky po nich na trhu práce. Zároveň tento výzkum odráží aktuální potřeby prostředí, ve kterém se absolventi oboru informační management nacházejí. Katedra systémové analýzy proto oslovila, v souladu s inovačními trendy obecně i na zahraničních univerzitách, skupinu absolventů oboru pracujících na různých pracovních pozicích v praxi, pro zjištění jejich názorů na: -
přínos absolvovaných studijních předmětů pro osobní rozvoj a jejich praktické uplatnění a možnosti jejich zlepšení/úpravy, možné směry, kterými by se měl obor podle požadavků praxe dále rozvíjet, aby byl přínosem nejen pro znalosti a dovednosti absolventů, ale i jejich potenciální zaměstnavatele.
Povinné předměty hodnotili absolventi v první části dotazníku dle přínosnosti pro vlastní osobní rozvoj. Hodnocení zahrnovalo aspekty rozvoje kritického myšlení, analytického myšleni, celkového rozhledu, hodnotících schopností, nadhledu nad problematikou, uvědomění si širších souvislostí zkoumaných jevů, různých přístupů k problematice, práce s informacemi, vyvozování závěrů, apod. Při hodnocení mohli absolventi zvolit u jednotlivých předmětů na škále 1 (nejméně přínosné) až 10 (nejvíce přínosné). Celkové výsledky jednotlivých předmětů jsou pak průměrem všech hodnocení daného předmětu. Výsledky jsou shrnuty v prvním grafu.
104
Střížová, Smutný
Graf 1: Hodnocení přínosu povinných předmětů pro osobní rozvoj.
Graf 2: Hodnocení přínosu povinných předmětů pro praxi.
Na stejném základě hodnotili absolventi povinné předměty dle přínosnosti pro uplatnění v praxi, viz Graf 2. Volitelné předměty, absolvované během studia, hodnotili absolventi, dle jejich přínosnosti pro osobní rozvoj a uplatnění v praxi, viz Graf 3.
Acta Informatica Pragensia
105
Graf 3: Hodnocení přínosu volitelných předmětů pro osobní rozvoj a praxi.
Souhrn výstupů z ankety k povinným a oborově volitelným předmětům magisterského studijního oboru Informační management na zařazení předmětů do portfolia povinných předmětů i oborově volitelných předmětů vychází z návrhů absolventů na základě jejich vlastních zkušeností a požadavků praxe. Většina absolventů považuje současný mix předmětů za poměrně vyvážený. Kladně hodnotí spojení kritického myšlení a nadhledu nad věcí, chápání informací, znalostí a současného světa, dále organizační pohled z praxe a zaměření na „soft skills“, zkušenosti získávané s vedením týmu a spolupráci na reálných příkladech v současných podmínkách. K velice přínosným řadí zaměření předmětů: projektové řízení, optimalizace podnikových procesů a informační management. Absolventi, kteří v praxi realizují velmi komplexní procesy, považovali hodnocení předmětů za obtížné. Důvodem bylo, že tito absolventi považovali každý předmět za přínosný, protože si z každého vybrali to, co je pro ně využitelné – odnesli si např. určitá teoretická východiska, která uplatňují v praxi, zatímco jiné části pro ně na dané pozici přínos neměly. Dle zkušeností absolventů patří k nezbytnému penzu znalostí a dovedností informačního manažera: -
rozvoj kritického, analytického a systémového myšlení, zkoumání problémů z různých úhlů pohledu, znalost managementu a fungování organizace, včetně procesů, odhalování, hodnocení a uspokojování informační potřeby v organizaci i v jejích částech, týmová práce, vedení týmu a práce v týmech, týmové projekty k řešení reálných problémů s intenzívnějším propojením s praxí – resp. se zapojením reálných firemních partnerů, teorie a praxe informačních systémů a důsledky informatizace.
Doporučení, která považovali absolventi za rozhodující pro rozvoj oboru jako celku:
106
Střížová, Smutný
-
-
-
-
Provázat jednotlivé předměty – logická a praktická návaznost seminářů na teoretické části předmětu. Zvětšit počet hodin seminářů – více hodin zaměřených na procvičování považují za přínosnější. Zaměřit semináře více na praxi a praktické příklady, neboť společnosti chtějí zaměstnávat absolventa, který má představu o tom, jak podnik funguje ve skutečnosti v praxi, orientuje se v tom, co je to lidský faktor, jakým způsobem ho řídit, pracovat s ním a vést ho i řešit problémy. Více předmětů (ať povinných, nebo volitelných), které by byly praktičtěji zaměřené na propojení informačních technologií a podnikání (ekonomické aspekty, atd.). Za největší překážku „na trhu práce“ viděli někteří z nich absenci reálné praxe a doporučují proto rozšířit výuku o praktickou část – stáž ve firmě. Návrh zněl na zařazení jednosemestrálního programu (např. od září, kdy by firmy mohly studenta zaškolit a v průběhu semestru by již probíhala praxe), který by umožnil lepší propojení oboru s praxí a studentům by dal možnost poznat obor i z reálného života (alternativa k nabídkám firem v rámci zpracování diplomových prací). Posílit spolupráci se zahraničními vysokými školami (zahraniční výměnné pobyty, společné projekty i ve výuce).
Doporučení k předmětům se týkala zejména navýšení studia o praktickou součást řešení reálných (nikoli imaginárních) projektů a doplnění nových trendů a některých metodik. Byl také navržen nový model pro vedení diplomového semináře – na začátku prvního semestru prvního ročníku společné 4 hodiny a dále zavést pouze povinnou konzultaci s vedoucím práce s tím, že do konce semestru student odevzdá min. 40 % diplomové práce. Absolventi dále doporučili zařadit do magisterského studia i začátečnický kurz anglického jazyka pro ty, kteří dosud studovali jiný jazyk. Za ideální považují prosadit pokračování studia jazyka i na magisterském studiu. Dva povinné předměty doporučují studovat v cizím jazyce s tím, že jeden z nich by měl vyučovat zahraniční lektor. K udržení v portfoliu předmětů oboru doporučili absolventi na základě vlastních zkušeností a požadavků praxe zejména předměty: optimalizace podnikových procesů, informační management, organizace a informace, komunikace a prezentace. K dalším konkrétním návrhům patřilo zařadit nebo rozšířit předměty o: řízení projektu informačních systémů (jak v praxi používat MS Project), seminář projektová dokumentace (ucelená dokumentace projektu informačního systému), teorie a techniky procesního modelování, právo a legislativa v informačních technologiích, dolování z dat a datové sklady, ochrana informací a znalostí, inovační proces a inovační strategie, podnikovou architekturu. Návrhy absolventů ke skupině oborově volitelných a případně volitelných předmětů se týkaly zejména možnosti rozšíření portfolia těchto předmětů, aby si student mohl vybírat dle určitého/skutečného zájmu o předměty, které dotvoří jeho představu o budoucí profesionální orientaci. Za vhodné považovali někteří absolventi zařazení následujících předmětů: ekonomika informačních systémů, analýza trhu informačních a komunikačních technologií, transformace podnikání v éře software jako služby, podpora byznysu informačních technologií a role manažera informatiky ve společnosti (CIO), testování softwarových aplikací, systémové myšlení v podnikové praxi, dokumentace projektu informačního systému, objektově orientovaná analýza a design nebo zavádění procesního řízení v praxi nebo některé technicky orientované předměty. Za zajímavý návrh lze
Acta Informatica Pragensia
107
považovat návrh na zařazení volitelných jazykových kurzů zaměřených na oborovou terminologii v cizím jazyce.
4.1 VEDLEJŠÍ SPECIALIZACE Specifikum VŠE v Praze v českém kontextu jsou vedlejší specializace, kdy si student v navazujícím magisterském studiu může vybrat na jakékoli fakultě VŠE v Praze další specializaci ke své hlavní specializaci. Jedná se o nedílnou součást magisterského studia informačního managementu a slouží k další profilaci absolventa. V současnosti je nabízeno téměř šedesát vedlejších specializací [14]. Vedlejší specializace se zakončuje státní zkouškou z vedlejší specializace, která se skládá po absolvování příslušných předmětů. Z celkového počtu 120 ECTS kreditů (evropský systém přenosných kreditů) pro celé navazující studium je pro ni vyčleněno 30 kreditů. Takto strukturované studium je inspirováno zahraničními univerzitami především v USA, kupříkladu uveďme Massachusetts Institute of Technology (MIT) nebo University of California (UCLA), které umožňuje studentovi lepší profilaci vzhledem ke svému současnému či budoucímu zaměstnání včetně interdisciplinárního rozhledu, což může být považováno jako konkurenční výhoda oproti absolventům z jiných vysokých škol v České a Slovenské republice. Právě zaměření studia ICT na „soft skills“ je důležité pro jejich následné uplatnění v praxi [11], přičemž možnost volby vedlejší specializace Z výsledků výzkumu vyplývá, že většina absolventů vystudovala některou z následujících vedlejších specializací: Manažerskou sociologii a psychologii, Manažera kvality, Ekonomickou žurnalistiku, Retail Business nebo Personální management – podrobněji viz Graf 4, přičemž první zmíněná byla také nejlépe hodnocena z hlediska přínosu pro osobní rozvoj či uplatnění v praxi. Naopak nejhůře byla z uvedených hodnocena Ekonomická žurnalistika.
108
Střížová, Smutný
Graf 4: Rozložení absolutoria vedlejších specializací.
Absolventi měli možnost při zpětném pohledu doporučit současným studentům vhodnou vedlejší specializaci, vzhledem k zaměření hlavní specializaci a budoucího uplatnění v praxi. Obecně doporučovali vedlejší specializace zaměřené na „soft skills“ a pochopení fungování celé organizace, s tím korespondují také nejčastěji doporučované vedlejší specializace: Manažerská sociologie a psychologie a Manažer kvality, který poskytuje pohled na organizaci z hlediska standardů ISO 9001, ISO 14 001 a OHSAS 18 001.
4.2 UPLATNĚNÍ ABSOLVENTŮ Z ROZPĚTÍ LET 2006 AŽ 2012 Mnoho studentů informatiky na VŠE v Praze pracuje již při studiu, což jim dovoluje především možnost sestavit si plně rozvrh podle svých představ a časových možností. Již během studia tedy nastupují studenti na junior pozice, případně do administrativy nebo podpory IT.
Acta Informatica Pragensia
109
Graf 5: Současné pracovní pozice absolventů (prosinec 2012).
Když jsme srovnali předchozí pracovní pozice, které absolventi zastávali dříve, s aktuálními pracovními pozicemi (viz Graf 5) absolventů, tak jsme zjistili, že přibyly následující: Manažer informatiky (CIO), Manažer rizik, Výkonný ředitel (CEO), Architekt IS. Tedy pozice, u kterých se očekává již zkušenost v dané oblasti, což je pozitivní posun z hlediska možností osobního růstu absolventů oboru Informační management. Z hlediska současných pracovních pozic dominuje Business analytik, Business konzultant a Projektový manažer, které odpovídají spíše sekundárním cílovým profesím. Primární profese jako CIO, Manažer rizik a Obchodní manažer jsou již zastoupeny méně. To lze částečně zdůvodnit nutností delší praxe na tyto pozice, jak bylo zmíněno již výše. Uplatnění našich absolventů v oblasti jejich vzdělání, lze hodnotit jako velmi dobré, včetně posunu na odpovědnější pozice s přibývající praxí. Z hlediska budoucího vývoje poptávky po absolventech informaticky orientovaných oborů je trendem postupný růst, naopak počty absolventů budou v této oblasti stagnovat a to nejenom v důsledku (pod)financování vysokého školství, ale též nedostatkem odborných vyučujících, kteří by se podíleli na výuce budoucích generací. [5]
5 ZÁVĚR Silný informační management je podmínkou nutnou pro fungování každé organizace a nezbytné je, aby ho vykonávali „informační experti“. To autory vede k závěru, že magisterský studijní obor s tímto zaměřením je oborem perspektivním. Za jeho významnou přednost lze považovat vedení studentů ke komplexnosti pohledů na práci s informacemi v organizaci a její řízení. Význam sehrává také interdisciplinární přístup ke vzdělávání studentů. To jsou také nejčastěji jmenované inovace v oblasti vzdělávání, které by se měly objevovat v celém školství v důsledku tzv. Globalizace 3.0 po roce 2000 [10].
110
Střížová, Smutný
Vždy je však možné dělat věci lépe. V souladu s touto tezí byl realizován i výzkum, který lze považovat za vklad k inovaci studijního oboru. Jeho přínos spatřují autoři zejména v naplnění inovace produktové a organizační. Produktová inovace je zaměřena na skladbu a obsah předmětů, jejichž charakteristiky nebo možnosti využití jsou zcela nové nebo výrazně zlepšené, organizační inovace znamená např. nový přístup k získávání znalostí, intenzivní spolupráce na studentských projektech s jinými (domácími i zahraničními) univerzitami, spolupráce na řešení projektů s konkrétními podniky, apod. Z pohledu těchto dvou typů inovací se doporučení týkají zejména zajištění provázanosti jinak logického rámce předmětů, intenzivní přístup k procvičování teoretických přístupů na reálných praktických příkladech, zařazení semestrálního programu orientovaného na práci v praxi, posílení spolupráce se zahraničními univerzitami ve výměnných pobytech a společných projektech ve výuce. Tato doporučení se jeví jako praxí potvrzená (na základě zde představeného výzkumu mezi absolventy s odstupem až 6-ti let od absolvování) a při snaze o inovativní přístupy k oboru je nutné je vzít v úvahu. Do této skupiny patří podle názoru autorů doporučení na rozšíření portfolia oborově volitelných předmětů či předmětů v rámci vedlejší specializace, aby si student mohl vybírat dle určitého/skutečného zájmu o problematiku, jejímž studiem „dotvoří představu“ o vlastní budoucí profesionální orientaci.
6 SEZNAM POUŽITÝCH ZDROJŮ [1]
5 hlavních inovačních typů. CzechInno [online]. 2012 [cit. 2013-07-22]. Dostupné z: http://www.czechinno.cz/inovace/definice-inovace/5-hlavnich-inovacnich-typu.aspx
[2]
Applied Information management: Core Courses and Curriculum Components. University of Oregon [online]. 2012 [cit. 2013-09-17]. Dostupné z: http://aim.uoregon.edu/prospective/curriculum/core.php
[3]
DENISON, D.C. Modernizing the Harvard MBA program: How the dean of Harvard Business School transformed an institutional culture in 2 years. The Boston Globe [online]. 2012 [cit. 2013-09-17]. ISSN 0743-1791. Dostupné z: http://www.bostonglobe.com/business/2012/07/14/progressreport/iGhFBrac5y70q58HnxM4KN/story.html
[4]
DOUCEK, Petr, MARYŠKA, Miloš, NOVOTNÝ, Ota. Analýza souladu obsahu ICT studijních oborů s požadavky praxe v České republiky. E+M. Ekonomie a Management, 2013, roč. XVI, č. 3, s. 148–161. ISSN 1212-3609.
[5]
DOUCEK, Petr. Human Capital in ICT – Competitiveness and Innovation Potential in ICT. In: DOUCEK, P, Gerhard CHROUST a Václav OŠKRDAL. IDIMT-2011: interdisciplinarity in complex systems. Linz: Trauner, 2011, s. 11-22. Schriftenreihe Informatik. ISBN 978-385499-873-0.
[6]
DOUCEK, Petr, ed. Informační management. 1. vyd. Praha: Professional Publishing, 2010, 251 s. ISBN 978-80-7431-010-2.
[7]
GAYNOR, Gerard H. Innovation by design: what it takes to keep your company on the cutting edge. New York: AMACOM, 2002, 302 s. ISBN 08-144-0696-3.
[8]
Information Management. University of Washington [online]. 2012 [cit. 2013-07-17]. Dostupné z: http://www.washington.edu/uwit/im/
Acta Informatica Pragensia
111
[9]
KOUCKÝ, Jan a Aleš BARTUŠEK. Demografický vývoj a projekce výkonů vysokých škol. Praha: Univerzita Karlova, Pedagogická fakulta, 2011, CD-ROM. ISBN 978-80-7290-524-9.
[10]
LARKLEY, Jasmine a Viola MAYNHARD. Innovation in education. New York: Nova Science Publishers, 2008, 235 s. ISBN 16-045-6275-7.
[11]
MARYŠKA, Miloš, DOUCEK, Petr. SMEs Requirements on „Non-ICT” Skills by ICT Managers – The Innovative. In: Liberec Economic Forum. Liberec, 16.09.2013 – 17.09.2013. Liberec : Technická univerzita v Liberci, 2013, s. 372–380. ISBN 978-80-7372-953-0.
[12]
MINISTERSTVO ŠKOLSTVÍ, MLÁDEŽE A TĚLOVÝCHOVY. Výroční zpráva o stavu vysokého školství za rok 2011 [online]. 2013 [cit. 2013-07-17]. Dostupné z: http://www.msmt.cz/vzdelavani/vyrocni-zprava-o-stavu-vysokeho-skolstvi-za-rok-2011
[13]
OECD & EUROSTAT, LUXEMBOURG. Oslo manual: guidelines for collecting and interpreting technological innovation data. 3rd ed. Paris: Organisation for Economic Cooperation and Development, 2005. ISBN 978-926-4013-100.
[14]
Přehled vedlejších specializací 2011/2012. Vysoká škola ekonomická [online]. 2012 [cit. 2013-07-17]. Dostupné z: http://www.vse.cz/download/?ID=344
[15]
VODÁČEK, Leo, ROSICKÝ, Antonín. Informační management: pojetí, poslání a aplikace. Vyd. 1. Praha: Management Press, 1997, 146 s. ISBN 80-859-4335-2.
[16]
VYMĚTAL, Jan, Anna DIAČIKOVÁ a Miriam VÁCHOVÁ. Informační a znalostní management v praxi. Vyd. 1. Praha: LexisNexis CZ, 2005, 399 s. ISBN 80-869-2001-1.
[17]
WEBFINANCE, USA. Information management. In: BusinessDictionary.com [online]. [cit. 2013-07-20]. Dostupné z: http://www.businessdictionary.com/definition/informationmanagement.html
[18]
WILSON, T. D. Information management. In: FEATHER, John a R STURGES. International encyclopedia of information and library science. 2nd ed. New York: Routledge, 2003. ISBN 9780415259019.
[19]
ZIFF DAVIS CORPORATE, USA. Information management. In: PCMag.com [online]. [cit. 2013-07-17]. Dostupné z: http://www.pcmag.com/encyclopedia_term/0,1237,t=information+management&i=44948,00.a sp
Acta Informatica Pragensia 2(2), 2013, 112–121, DOI: 10.18267/j.aip.28 Online: aip.vse.cz
Sekce / Section: Recenzované stati / Peer-reviewed papers
Systémová dynamika: disciplína pro zkoumání komplexních měkkých systémů Stanislava Mildeová1 1
Katedra systémové analýzy, Fakulta informatiky a statistiky, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected]
Abstrakt: Cílem příspěvku je představit systémovou dynamiku, která pomáhá při řešení složitých problémů, a je pomůckou pro lepší pochopení okolních systémů. Systémová dynamika je zvláště užitečná pro analýzu systémů s vysokým stupněm detailní a dynamické komplexity, jako jsou komplexní sociální systémy. Ekonomický systém je typickým příkladem komplexního sociálního systému. Autor, s důrazem na povahu ekonomicko-sociálních systémů, ilustruje základní logiku systémové dynamiky a její vztah k aplikované informatice. Klíčová slova: systémová dynamika, informatika, systém, model, simulace, informační management Title: System dynamics: discipline for studying complex soft systems Abstract: The objective of the paper is to introduce system dynamics that helps in solving complex problems, and aids our better understanding of surrounding systems. System dynamics is especially useful for analysing systems with a high amount of detail and dynamic complexity, such as any complex social systems. An economic system is a typical example of a complex social system. The author, with an emphasis on the characteristics of economic-social systems, illustrates the basic logic of system dynamics and its relation to informatics. Keywords: System Dynamics, Information management
Informatics,
System,
Model,
Simulation,
Acta Informatica Pragensia
113
1 ÚVOD Zastavme se úvodem u kontrastu vývoje v oblasti technologií, a zvláště pak technologií spjatých s výpočetní technikou, a relativně nedostatečného pokroku v chápání sociálních systémů, jež lze v průběhu minulého století zaznamenat. Proč tomu tak je? Proč je výzkum a vývoj technologií tak rychlý, když sociální systémy zůstávají stejně záhadné jako dříve? Sociální systémy se chovají v rozporu s očekáváním. Neumíme si představit efekt nelinearity a efekt zpětné vazby zásahu ve složitých systémech; většinou dramaticky podceňujeme setrvačnost systému, která vede k nesprávné závěrečné politice. Zobecňujeme lineárně, ale chování je většinou více než složité vlivem závislostí mezi proměnnými a smyčkou zpětné vazby, kde výstup systémové komponenty má podstatný vliv jako vstup v budoucnosti. Dodatečná složitost je představována existencí akumulací a zpoždění. V této souvislosti autor přichází s návrhem alternativního zkoumání sociálních systémů a získání kompetence pro úspěšné řešení problémů komplexních systémů v prostředí informační společnosti, kde dominantním znakem je informatizace všech oborů a oblastí. Vychází z toho, že chceme-li chápat a analyzovat problémy systémově, je nezbytné změnit paradigma vnímání systému. Komplexita systému neumožňuje zabývat se zkoumáním jednotlivých částí systému, ale je potřeba zaujmout holistický přístup vnímání systému. Holistický přístup poskytuje základní rámec pro zkoumání struktury komplexních systémů. Hlavní důraz na roli struktury a jejího vztahu s dynamickým chováním systému, modelovaném pomocí sítě zpětnovazebních smyček, klade systémová dynamika. Cílem článku je seznámit se systémovou dynamikou jakožto disciplínou, která napomáhá kvalitnějšímu poznávání komplexních měkkých systémů. Autor s akcentem na charakteristiku ekonomicko-sociálních systémů objasňuje základní logiku systémové dynamiky a tvorby jejích modelů. Následně článek graduje analýzou vztahu systémové dynamiky a informatiky – je zkoumán potenciál systémové dynamiky pro rozvoj IS/ICT a z druhé strany je zkoumáno, jak rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby jejích modelů. Systémové poznání a rozvoj, ke kterému článek směřuje, může být impulsem k rozvoji širokého pojetí aplikované informatiky v hospodářské praxi a managementu organizací.
2 ZKOUMANÉ ASPEKTY KOMPLEXNÍCH MĚKKÝCH SYSTÉMŮ 2.1 SYSTÉMY A JEJICH KATEGORIZACE Na ekonomicko-sociální systémy se lze dívat z mnoha pohledů. Vymezme si proto úhel náhledu a jeho pojmový aparát, který je základem pro naše zkoumání. Nejprve je potřeba vysvětlit, jak bude chápán pojem systém, už z toho důvodu, že tento termín je používán čím dál tím více a často zní až frázovitě a také, že systém lze definovat mnoha způsoby. Systémy jsou všude kolem nás a pojem systém je možné aplikovat na jakoukoliv činnost či oblast světa. V pojetí systému vycházíme ze systémové teorie dle [2] [3] [5] [8] [13] a systém je v článku chápán jakožto komplex prvků, nacházejících se ve vzájemné interakci, kdy je třeba zdůraznit účelovost systému, tj. plnění předem stanovené funkce. Na interakce mezi jednotlivými prvky celku se díváme
114
Mildeová
jako na spojnice, tradičně je nazýváme vazbami. Mimo to mohou existovat vazby, které systém propojují s okolím, toto okolí je pak také systémem. Vymezení systému vůči jeho okolí vede k rozlišení systémů na uzavřené a otevřené. Uzavřené systémy nemají žádné spojení se svým okolím, a tedy nepřijímají žádné vstupy z okolí ani nevydávají výstupy do okolí. Ekonomické systémy jsou otevřené systémy, nemohou bez svého okolí existovat, neboť s ním provádí důležité hmotné, energetické, resp. informační výměny. Systémová hierarchie uvažuje sledovaný systém jako součást systému širšího a naopak každou část systému za autonomní systém. Každý systém je součástí systému vyšší úrovně. Při zkoumání celku a jeho složení se musíme snažit správně definovat vrstvu, na které složení zkoumáme. Při zkoumání ekonomického systému jako celku a jeho složení je třeba respektovat holistický princip, tj. vyjít z celostního pojetí systému, kdy jeho výslednou kvalitu nelze odvodit z vlastností jednotlivých prvků systému, ale pouze z celého systému. Používáme-li dále termín tvrdé systémy, jde ve velké většině o synonym pro umělé technické systémy, jež vytvořil člověk, nebo technickým systémem vytvořené jiné technické systémy. Systémy tohoto typu nejsou předmětem našeho zkoumání. Upozorněme jen v konsekvenci námi zkoumané problematiky, že chování těchto systémů lze dobře modelovat. Porozumět tvrdým systémům je méně složité než porozumění sociálním a ekonomickým systémům. Ekonomické systémy jsou systémy měkké. Měkké systémy jsou zpravidla adaptabilní vzhledem k měnícím se vlastnostem okolí a jejich prvky a vazby nebývají neměnné, významný prvek či prvky systému je člověk, resp. lidé. Jde tedy současně o systémy sociální. Modelování měkkých systémů je oproti tvrdým systémům složitější. Zároveň platí, že ekonomické systémy nejsou ve vakuu – jsou ovlivňovány prostředím a svou historií, tzv. hysterezí. Prostředí, závislost současného stavu na předchozích stavech a kontext hrají důležitou roli v chování komplexních systémů a proto nemohou být ignorovány. [8] Pojem, který je v současnosti často zmiňován, je komplexita. Komplexita (složitost) systému je určena počtem prvků a vazeb v něm identifikovatelných. Ekonomické systémy jsou systémy komplexní s vysokou mírou komplexity. Problém zkoumání komplexních systémů spočívá v nutnosti redukovat zkoumané vlastnosti na ty entity a atributy, které jsou podstatné. Ze složitosti nelineárních a nedeterministických systémů vychází teorie komplexity. [11] Podstata této teorie není jen ve snaze o redukci komplexity neboli míry složitosti nějakého komplexního systému. Teorie komplexity popisuje chování komplexních systémů a zároveň nabízí aparát pro jejich uchopení. 2.1.1
UDRŽITELNOST SYSTÉMŮ
Operujeme-li s pojmem udržitelný rozvoj, je nezbytné jej specifikovat. V poslední době je tento termín chápán v podstatně širším smyslu, než je konsekvence přijatelného stavu životního prostředí, jde o udržitelnost systému jako celku. V problematice udržitelnosti systémů se lze setkat s teorií samoorganizace. V roce 1977 získal Ilya Prigogine Nobelovu cenu za tuto teorii. Objevil, že po průchodu kritickým bodem se zprvu nahodilé chování systému významně mění a stále více se orientuje do určitého vzorce – systém se počíná chovat vysoce organizovaně. V dalším výzkumu pak dokázal, že když jsou systémy daleko od
Acta Informatica Pragensia
115
rovnováhy, dochází k samovolnému přeuspořádání komponent a k nastolení nového řádu, tedy tvorbě nových struktur, jež nelze přesně předvídat. [9] Z dalších teorií se musíme opět zmínit o nových způsobech zkoumání založených na teorii komplexity a termínech jako je co-evoluční udržitelnost, která umožňuje systému měnit se s měnícím se prostředím.
3 ZKOUMÁNÍ VZTAHŮ V EKONOMICKO-SOCIÁLNÍCH SYSTÉMECH 3.1 DISKUZE K METODĚ ZKOUMÁNÍ V době řešení současné ekonomické krize probíhá významný redesign světové ekonomiky. Otázkou je, zda probíhá s odpovídajícím zvážením systémových důsledků. Autor, v návaznosti na [3] se domnívá, že ačkoli sociální systémy jsou oproti technickým systémům mnohem složitější, v rámci sociálních systémů se používají metody jednodušší než jsou používané metody systémového inženýrství pro návrh technických systémů. Jsme svědky toho, že manažeři, rozhodovatelé a politici se omezí pouze na svoji intuici, připraví a mění své návrhy bez použití novodobých metodologií, metod a metodik. Je zřejmé, že pro zkoumání vztahů v ekonomicko-sociálních systémech musí být odlišný přístup než u věd přírodních. Metodologie ekonomie má jiný charakter než metoda zkoumání u věd přírodních. Sociální systémy převyšují svou komplexitou systémy fyzikální. Jelikož se v nich potýkáme s mnohem větší komplexitou než v případě fyzikálních nebo biologických jevů, jsou obtížně uchopitelné. Vzájemná závislost mezi prvky v systému je základním stavebním kamenem celkové komplexity systému. Čím více jsou prvky na sobě navzájem závislé, tzn. že se ovlivňují, tím méně je možné pochopit chování systému pouze na základě pochopení jednotlivých prvků. [7]. Z komplexní povahy ekonomických procesů vychází i podhled na dynamiku. Dynamika právě z těchto příčin vyplývá. Některé přístupy v ekonomii, stejně jako systémová dynamika, jež je předmětem našeho zájmu, uvažují dynamické souvislosti tržních procesů. Základem je potýkání se s nejistotou budoucnosti a nutnost přizpůsobování se neustálým změnám.
3.2 SYSTÉMOVÁ STRUKTURA Ekonomické systémy mají strukturu prvků a vazeb mezi nimi, které determinují chování těchto systémů. Jestliže nejvýznamnější komponenty této struktury poznáme, a to včetně pochopení dynamických konsekvencí, pak máme šanci nalézt postupy, které povedou ke stanovenému cíli, ať už jím je ekonomická stabilita nebo dosažení udržitelného vývoje. Základem sociálních resp. ekonomických systémů je vazba mezi jeho prvky, individuální chování jednotlivce je korigováno zpětnou vazbou celého systému. Všechny komplexní sociální systémy obsahují zpětnovazební procesy. [9] Jedna akce nevyvolá jednu reakci, jejíž výstup bychom očekávali. Žijeme v prostředí, které je velmi turbulentní a každá akce vyvolá náhodné množství jiných reakcí. Tyto reakce ovlivňují současné podmínky systému, je to nekončící proces. Výše uvedené způsobuje zpětná vazba měnící chování všech prvků. Lidé reagují na výstup svého předchozího jednání i jednání
116
Mildeová
ostatních lidí. Princip zpětné vazby přitom není omezen jen na systémy sociální, pro biologické a technické systémy je typický. Jde o velmi univerzální princip. Dynamické vnímání struktury systému je reprezentováno dvěma typy zpětnovazebních procesů posilování trendu, kterým se systém ubírá a směřování systému do rovnovážného stavu. [13]. Pozitivní zpětná vazba představuje první z těchto dvou typů zpětnovazebních procesů, kdy trend sledované veličiny může buďto narůstat a nebo klesat. Pokud se cyklus neustále opakuje, sledovaná veličina může narůstat/klesat exponenciálně. Čistý exponenciální růst je pak zajímavý tím, že čas zdvojení je konstantní. Příkladem toho, jak stupňování zpětné vazby může urychlit pokles, je růst prodejů akcií v důsledku poklesu důvěry a následný pokles cen akcií, což vede k dalšímu poklesu důvěry. Ovšem urychlený růst nebo pokles je zřídkakdy bez překážek, protože procesy se stupňovaným působením málokdy probíhají izolovaně. Dříve či později narazí na překážky, které mohou růst zpomalit, zastavit či dokonce ho i obrátit. Tato omezení jsou jednou formou vyvažující zpětné vazby. Vyvažující negativní zpětná vazba je druhým typem zpětnovazebních procesů. Navrací systém do rovnovážného stavu, vede k nějakému chtěnému cílovému stavu. Klíčem pro rozpoznání negativní zpětné vazby je, že působí proti směru trendu změny. Pro příklad negativní zpětné vazby uveďme třeba nárůst pracovní síly na trhu, který povede ke snížení počtu pracovních příležitostí. Vyrovnávající zpětné vazby je obtížnější rozpoznat než posilující, protože za normálních okolností jejich působení není vidět. Nerozpoznání implicitních vyrovnávacích zpětných vazeb vede často k překvapivému chování systému, když je do jeho chodu zasahováno. Současně platí, že každý systém má svůj vlastní rytmus a tempo dosahování potřebných úrovní. Mnohé zpětnovazební procesy mají určité zpoždění (poruchy v působení vlivu), které zapříčiňují, že důsledky jednání se dostavují postupně. 3.2.1
NELINEARITA, NEJISTOTA
Závažnou charakteristikou většiny systémů je to, že se dynamicky vyvíjí, tedy přecházejí z jednoho stavu do druhého. Pozitivní a negativní zpětné vazby ve svých vzájemných kombinacích způsobují v komplexních sociálních systémech velmi rozmanité chování, typicky značně nelineární. Protože fungují negativní zpětné vazby, které se snaží o navrácení systému do bezpečných hodnot jeho hranic a předcházet kolapsu, systém se obvykle chová jinak v oblastech, které se blíží hraničním hodnotám, než v oblastech, které jsou z tohoto hlediska a vzhledem ke struktuře systému žádoucí a tzv. normální. Nelinearita, chování neodpovídající přímé úměře, je charakteristickou vlastností komplexních sociálních systémů. A nejen nelinearita. V komplexních sociálních systémech se také objevují faktory, se kterými se lze vypořádat pouze velmi obtížně – nejistota a neurčitost.
Acta Informatica Pragensia
117
4 DISCIPLÍNA SYSTÉMOVÁ DYNAMIKA 4.1 PODSTATA DISCIPLÍNY Vztahy spojení mezi různými fyzikálními, sociálními, ekonomickými a ekologickými subsystémy, které utvářejí svět, jsou provázány dosti složitě. Pochopení vazeb v těchto systémech je náročné. Následkem může být, že problémy, kterým čelíme a snažíme se je řešit, jsou proti našim zásahům imunní. Rozpoznání dopadů různých politik, ať už ekonomických či environmentálních, je náročné, nicméně existují prostředky k možnému zjištění dopadů rozhodnutí dříve než jsou provedena. Systémová dynamika přináší pohled a nástroje, které umožňují se s komplexností lépe vypořádat, poskytuje základní rámec při zkoumání těchto procesů. Kombinuje teorie, metody a filozofii pro analýzu chování systémů, a to především komplexních sociálních systémů jako jedněch z nejsložitějších měkkých systémů. Disciplína systémová dynamika, jejíž základy byly položeny již počátkem 60 let, původně vznikla z důvodu vyhledávání lepších způsobů řízení. Její logika je poplatná tomu, že Jay Wright Forrester, zakladatel systémové dynamiky a autor řady publikací o ní, získal vzdělání na Massachusetts Institute of Technology a byl průkopník v oblasti kybernetiky a počítačů [3]. 4.1.1
MODEL SYSTÉMOVÉ DYNAMIKY
Systémová dynamika staví na konceptu zpětné vazby, kterou znázorňuje pomocí počítačových modelů. Tvorba modelů je jádrem systémové dynamiky. [13] [6] Stoupenci systémové dynamiky pojímají modelování jako poloformální, holistický proces. Počítač za pomocí specializovaných softwarových prostředků, ve kterých se systémově dynamické modely tvoří, simuluje chování reálného systému. Pomocí simulačních modelů systémové dynamiky lze porozumět systémům a jejich složitým vazbám. Počítačovou simulací lze měnit způsoby rozhodování v jednotlivých prvcích systému a zkoumat, jakým způsobem se projeví u ostatních prvků. Model a výsledky modelování znázorňují důsledky chování systému v různých situacích. Model jako kopie systému, přenesená do počítače, umožňuje zkoumání jednotlivých interakcí v chování prvků. Reálné systémy jsou příliš komplexní na to, abychom u nich byli schopní identifikovat problémová místa, ale při zjednodušení a abstrakci systému do počítačového modelu získáváme cenný zdroj pro zjištění problémů, které daný systém zažívá. (Je ale třeba si uvědomit, že námi vytvářené modely, jakkoliv sofistikované, jsou pouze odrazem reality, nikoliv realitou samou a neměly by s ní být v žádném případě zaměňovány). Současné modely jsou vytvářeny na základě srozumitelných přístupů, zejména pomocí tzv. příčinných smyčkových diagramů („causal-loop diagrams“) a diagramů stavů a toků („stock-and-flow diagrams“). Tím se zvýšil stupeň obecnosti a robustnosti ve srovnání s původními diferenciálními rovnicemi, které byly pro tvorbu modelů používány. Zobrazení dynamických systémů pomocí příčinných smyčkových diagramů a pomocí diagramů stavů a toků (viz. Obr.1) je obecná forma, která je adekvátní pro obrovské spektrum potenciálních aplikací. [13] I když je systémová dynamika především spojována s explicitními simulačními modely, není tento způsob zkoumání jedinou formou aplikace její logiky. Ve formě tzv. konceptuálních modelů lze
118
Mildeová
využít výhody vizualizace systému pomocí příčinných smyčkových diagramů k pochopení struktury systému. [10]
Obr. 1. Příčinný smyčkový diagram (vlevo) a diagramů stavů a toků (vpravo)
4.1.2
APLIKACE SYSTÉMOVÉ DYNAMIKY
Při zkoumání ekonomických systémů byla v rámci systémové dynamiky dosažena překvapivá zjištění, například, že problémy vznikají uvnitř systémů, ačkoliv tendence je hledat příčiny z vnějšku systému; že činnosti jedinců mohou být pro systém degradující, ačkoliv oni samotní se domnívají o jejich prospěšném charakteru; že složitost zpětné vazby a její struktura může způsobit neefektivní a kontraproduktivní jednání. Systémová dynamika se rozvíjí po celém světě, i v ČR [14], a její význam má v současných ekonomických systémech stále větší váhu. Využívá se pro získání systémového pohledu na systém, je moderním analytickým přístupem k získávání informací o vazbách v systémech, slouží pro zjištění problémových míst dnešních systémů.
4.2 SYSTÉMOVÉ TEORIE Systémová dynamika je jednou z rozličných druhů systémových teorií a metodologií, jež se časem vyvinuly. V rámci dalších systémových teorií jmenujme alespoň matematickou teorii systémů. V tomto kontextu se také používá pojem již zmiňované teorie komplexity. Ač je spektrum systémových teorií a metodologií rozmanité, všechny mají silný společný jmenovatel: staví na představě, že systém je organizovaný celek a systém je vždy víc, než součet jeho částí. Společným jmenovatelem je také zaměřenost na komplexní systémy, na jejich popisování, vysvětlování, navrhování nebo jejich ovlivňování. Proto většina systémových přístupů nenabízí pouze teorii, ale také způsob myšlení a metodologii na řešení systémových otázek nebo problémů. [5] Systémová dynamika je součástí systémových přístupů. Dokonce lze říci, a vývoj disciplíny systémová dynamika ve světové komunitě aplikující systémovou dynamiku to dokazuje, že se jedná o „systémový přístup“ jako obecně platný pořádací princip sám o sobě. I když je nezbytné vzít v úvahu varietu systémových teorií a metodologií (z nichž mnohé systémovou dynamiku doplňují), je zřejmé, že z komunity systémové dynamiky se stala nejsilnější „škola“ systémového přístupu s mnoha členy v akademickém prostředí i reálné praxi prezentující se tisíci úspěšných aplikací po celém světě. [4]
Acta Informatica Pragensia
119
5 SYSTÉMOVÁ DYNAMIKA A APLIKOVANÁ INFORMATIKA Článek vychází z přesvědčení autora, že systémová dynamika je multidisciplinárním přístupem pro poznávání, zkoumání a modelování komplexních měkkých systémů. Je také přístupem, který je velmi zajímavý z pohledu aplikované informatiky. Vztah systémové dynamiky a informatiky lze charakterizovat jako obousměrný – z jedné strany lze zkoumat jaký je potenciál systémové dynamiky pro rozvoj IS/ICT, z druhé strany rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby jejích modelů.
5.1 POTENCIÁL SYSTÉMOVÉ DYNAMIKY PRO ROZVOJ IS/ICT Pojďme se především zastavit u potenciálu systémové dynamiky pro rozvoj IS/ICT. V první řadě si položme otázku, zda mohou být aplikace informatiky v měkkých systémech skutečně úspěšné, jestliže tyto systémy známe nedokonale. Asi nikoliv. Pravděpodobně i toto může být jedním z důvodů, proč selhává tolik IT projektů1. Chceme-li chápat chování systémů, je nezbytné změnit svoje nazírání na systém, např. organizaci2. Musíme se posunout od zkoumání samostatných událostí a jejich příčin a vidět systém jako organismus vzájemně propojených částí.
Modely systémové dynamiky mohou najít uplatnění při simulování reálných ekonomických procesů, spojených s potřebou zajištění adekvátních informací. Lze je považovat za nástroj moderního znalostního managementu. Posunují tacitní znalosti do explicitní reprezentace, která může být standardizována a sdílena. Za druhé v nové situaci síťové a znalostní ekonomiky vzniká nezbytnost změn manažerského myšlení. Zaměřme se na samotný informační management. Řízení informatiky má svou dynamiku, která se stále mění. Moderní ICT přispívají k podstatnému zrychlení veškerých materiálních i informačních toků, což vyžaduje i zrychlení rozhodovacích procesu. [1] Rozpoznání dopadů různých informačních strategií a politik v synergii s byznys strategiemi je složité. Model systémové dynamiky může být prostředek ke zjištění dopadů rozhodnutí dříve, než jsou provedena, pomáhat v řešení reálných rozhodovacích situací, objasnit principy, jimiž se řídí racionální rozhodování, zpětně analyzovat rozhodnutí a izolovat příčiny úspěchu či neúspěchu, podpořit tvůrčí přístup k řízení informatiky a moderní manažerské práci vůbec. Model systémové dynamiky se tak stává součástí celkové informační strategie. Současně může být model systémové dynamiky pro informačního manažera nástrojem posunu uvažování směrem k systémovému myšlení. To je podstatné pro pochopení skrytých a nezjevných příčin, které za těmito událostmi stojí. Systémové myšlení je klíčové pro proces učení se. [12] Informační systémy, které poskytují zpětnou vazbu, se mohou měnit tím, jak se učíme. V neposlední řadě je třeba uvést, že snad neexistuje problém v ICT (který není čistě technického rázu) či v oblasti ICT podnikání a softwarového byznysu, kde by nebyla snaha ho pomocí nástrojového aparátu systémové dynamiky řešit. Nezapomeňme, že vznik systémové dynamiky je spojen s MIT a že zdejší System Dynamics Group na MIT Sloan School of Management je (společně s americkou System 1
O překročení limitů klasického projektového řízení se systémová dynamika snaží ve formě tzv. Project Dynamics. 2 Aplikace principů systémové dynamiky na hospodářskou organizaci bývá označována Business Dynamics.
120
Mildeová
Dynamics Society) tahounem celosvětového vývoje disciplíny. Problematika jednotlivých aplikací na řešení informatických problémů si zaslouží samostatný článek a bude předmětem dalšího výzkumu autora.
5.2 VLIV INFORMATIKY NA ROZVOJ SYSTÉMOVÉ DYNAMIKY Na druhé straně rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby jejích modelů. Dnešní moderní software jako jsou Powersim, Vensim, Insight Maker a další, s uživatelsky přívětivým prostředím a grafickými objekty pro tvorbu modelů systémové dynamiky, poskytují úplně jiné možnosti než byly první simulace se software SIMPLE (Simulation of Industrial Management Problems with Lots of Equations), což byl první kompilátor zpracovávající diferenciální rovnice, kterými byly prvotní modely systémové dynamiky popsány.
6 ZÁVĚR Lidé často spojují systémy do jednoho pojmu, neodlišují jejich rozdíly. Sociální systémy jsou oproti těm tvrdým mnohem složitější, vysoce provázané, nelineární a obsahují zpětnou vazbu, zde stejně tak jako tvrdé systémy. Procesy zpětné vazby řídí veškerý růst, kolísání i úpadek a jsou základem pro veškeré změny. Zpětnovazební koncepty, na kterých je založena logika disciplíny systémová dynamika, se mohou - po inženýrství - stát také organizačním konceptem pro ekonomické systémy. Zpětná vazba odhaluje nové pohledy na ekonomické systémy, které by popisné a statistické analýze mohly uniknout. Tradiční kvantitativní metody neberou v potaz zpětnovazební struktury. Systémová dynamika umožňuje jít nad rámec popisných teorií, přináší rigorózní rámec pro organizování silné politiky a získání nových strukturálních znalostí. V této souvislosti je v textu článku zvýrazněna disproporce mezi znalostmi o chování měkkých sociálních systémů oproti znalostem o tvrdých, technických systémech. Systémová dynamika - jedna z větví systémových věd, byla autorem zařazena mezi moderní systémové přístupy. Jde o prakticky orientovanou disciplínu pro studium chování komplexních sociálních, ekonomicko-sociálních a socio - technických systémů; disciplínu, která napomáhá kvalitnějšímu poznávání okolních systémů, zejména těch, ve kterých se vyskytuje vysoká míra detailní a dynamické komplexity. Konkrétní metodologie systémové dynamiky spočívá v reprezentaci problémů nebo systémů, jimiž se zabýváme, jako sítí uzavřených smyček zpětných vazeb, vytvořených z tzv. hladin a toků, probíhajících v čase a podléhajících zpožděním. Systémová dynamika spoléhá na modelování. Zpětnovazební smyčky a zpoždění jsou pomocí hladin a toků vizualizovány a formalizovány. Vztah systémové dynamiky a informatiky byl charakterizován jako obousměrný – z jedné strany má systémové dynamiky potenciál pro rozvoj IS/ICT, z druhé strany rozvoj informatiky posunuje možnosti systémové dynamiky a tvorby jejích modelů. Modely systémové dynamiky - zkombinované s výpočetní technikou, která už není hranicí, ale ustoupila do struktury každodenní činnosti - umožňují efektivní simulaci komplexních systémů. Systémová dynamika muže být jednou z cest, jak pomocí ICT nejen o systémovosti a systémovém myšlení hovořit či jej používat jako propagační slogan, ale jak jej reálně v praxi řízení používat – při současném respektování faktu, že ani nejdokonalejší
Acta Informatica Pragensia
121
informační technologie sama o sobě nemůže zabezpečit efektivní fungování komplexního měkkého systému. I když doporučení autora vede jednoznačně k popularizaci disciplíny systémová dynamika, autor si je vědom, že jde jen o jeden z možných způsobů systémového zkoumání. Kromě tradičních metod i takové silnější metodologie jako je teorie komplexity a další, které nyní vznikají, by mohly být také významněji v české vědě diskutovány.
7 SEZNAM POUŽITÝCH ZDROJŮ [1]
BÉBR, R., DOUCEK, P. Informační systémy pro podporu manažerské práce. 1. vyd. Praha: Professional Publishing, 2005. ISBN 80-864-1979-7.
[2]
BERTALANFFY, L. von. General System theory: Foundations, Development, Applications. Revised edition, New York : George Braziller, 1969. ISBN: 978-0807604533.
[3]
FORRESTER, J. W. Industrial Dynamics. 1st ed. Productivity Press, Portland, 1961. ISBN13: 9780915299881, ISBN: 0915299887
[4]
FORRESTER, J. W. System Dynamics – A Personal View of the First Fifty Years. System Dynamics Review, 23(2-3), Autumn, 2007, pp. 345-358. ISSN 0883-7066.
[5]
KLÍR, G. Facets of Systems Science. IFSR International Series on Science and Engineering. Second edition, Springer, 2001. ISBN 0306466236, 9780306466236.
[6]
MILDEOVÁ, S. Systémová dynamika: tvorba modelu. 1. vyd. Praha : Oeconomica, 2012. ISBN 978-80-245-1842-8.
[7]
MILDEOVÁ, S. System Dynamics Supporting Complexity Management: Case Studies from a Small Economy within an Economic Integration Environment. In Complexity and Knowledge Management: Understanding the Role of Knowledge in the Management of Social Networks, Tait, A., Richardson, K. A. (eds). Charlotte: IAP - Information Age Publishing, 2010. pp. 267– 283, ISBN: 978-1607523550.
[8]
MITLETON-KELLY. The Emergence of Final Cause. In: Aaltonen, M. (ed.). The Third Lens. Multi-Ontology Sense-Making and Strategic Decision-making, 1st ed., Ashgate Publishing Ltd, Aldershot, 2007. ISBN 0754647986.
[9]
PRIGOGINE, I., STENGERS, I. Order out of chaos: man’s new dialogue with nature, 1st ed., Flamingo, 1985. ISBN 0-00-654115-1.
[10]
RICHARDSON, G. P. Feedback though in social science snd systems theory. 1st ed., Pegasus Communications, Waltham, Massachusetts, 1991. ISBN 1-883823-46-3.
[11]
RICHARDSON, K. A. To Be or Not to Be? That is [NOT] the Question: Complexity Theory and the Need for Critical Thinking, in RICHARDSON, K. A. (ed.). Managing organizational complexity: Philosophy, theory, and application, 1. vyd. Greenwich, CT: Information Age Publishing, 2005. ISBN 1593113188.
[12]
SENGE, P. The Fifth Discipline. 1st ed. Currency Doubleday, New York. 1990. ISBN 0-38526095-4.
[13]
STERMAN, J. D. Business Dynamics. Systems Thinking and Modeling for a Complex World. 1st ed. USA: McGraw-Hill Higher Education. 2000. ISBN: 978-0072389159.
[14]
ŠUSTA, M. O systémové dynamice a systémovém myšlení. [online]. Praha : Proverbs, Dostupný z: http://proverbs.cz/default.asp?id=4&mnu=4 [cit. 2013-12-01].
Acta Informatica Pragensia 2(2), 2013, 122–124, DOI: 10.18267/j.aip.29 Online: aip.vse.cz
Sekce / Section: Knižní recenze / Book reviews
Dynamika sociálně-ekonomických procesů Ingeborg Němcová1 1
Katedra světové ekonomiky, Fakulta mezinárodních vztahů, Vysoká škola ekonomická v Praze nám. W. Churchilla 4, 130 67 Praha 3 [email protected]
Abstrakt: Článek je recenzí knihy Ignáce Prna: „Dynamika sociálnoekonomických procesov: simulovanie dynamiky v sociálno-ekonomických systémech“, kterou vydalo v roce 2012 vydavatelství SAV v Bratislavě. Kniha předkládá systematicky uspořádané poznatky a nástroje, které mohou být přínosné pro pracovníky managementu, a také pro všechny, kteří se zajímají o modelování dynamických měkkých systémů. Tím, že je doplněna CD s vhodným softwarem umožňuje interaktivní způsob osvojení předkládaných poznatků. Klíčová slova: recenze, simulace, dynamika, sociálně ekonomické systémy, systémová dynamika, systémový přístup
Title: Dynamics of socio-economic processes Abstract: A review of a monograph by Ignác Prno: “Dynamika sociálnoekonomických procesov: simulovanie dynamiky v sociálno-ekonomických systémech“ (Dynamics of social and economic processes: simulations of dynamics in social and economic systems) which was published by Slovak Academy of Science in Bratislava in 2012. The book presents a in a systematically organized comprehensive knowledge and tools to managers and to everybody with an interest in modelling of dynamic soft systems. The CD with software which is accompanying the book allows readers to get the knowledge in an interactive way. Keywords: Review, Simulation, Dynamics, Socio-economic systems, System dynamics, System approach
Acta Informatica Pragensia
123
RECENZE KNIHY PRNO, Ignác. Dynamika sociálno-ekonomických procesov: simulovanie dynamiky v sociálno-ekonomických systémoch. Bratislava: Veda, 2012. 306 s. + příloha na CD. ISBN 978-80-224-1250-6.
Sociálně ekonomické procesy představují pro ekonomický výzkum, ale i hospodářskou praxi výzvu k jejich uchopení. Jsou výzvou pro svou dynamičnost i pro svou komplexitu. Proto je možné považovat monografii, kterou v loňském roce vydalo vydavatelství Slovenské akademie věd, za potřebnou a aktuální. Vlastní monografie je rozčleněna do třinácti kapitol. První dvě kapitoly představují de facto obecný teoretický a metodologický úvod do problematiky, rekapitulují zde východiska a hlavní principy tvorby modelů. Třetí kapitola je věnována struktuře modelu dynamického systému a způsobu zachycení časových zpoždění. Ve čtvrté až osmé kapitole se pak autor věnuje dalším aspektům struktury modelů a výpočetnímu aparátu v modelech. Devátá kapitola se pak zabývá otázkami hodnocení vhodnosti modelů. Desátá kapitola přehledně uvádí jedenáct systémových archetypů. Archetypy představují opakovaná chování sociálně ekonomických systémů. Upozorňují, že problémy, se kterými se konkrétní systém potýká, nemusejí být nutně nové, ale už dříve popsané. Má-li pak systém řešit své problémy, je třeba pochopit možnou patologii archetypu a následně vést „k praktickému uplatňovaniu systémového prístupu v riadení (a viesť k „samoučiacej sa organizácii“)“. [1, str. 59]. Jedenáctá kapitola se detailněji věnuje vybraným modulům systémů, které se v diagramech modelů složitých dynamických systémů zachycují jako opakující se stavební bloky opakovaní lidského chování. Následující dvanáctá kapitola tvoří těžiště knihy – příklady a simulace. To dokládá i svým rozsahem. Šíře aplikací je značná: od modelu firmy (růstu jejího trhu) a výrobně-odbytového systému, modelu výroby součástek a pohybu (zde je uvedena řada simulací), přes modely řízení realizace projektů, modely chování trhu, modely růstu městské populace až k modelování ekonomických cyklů a modelování ekonomického chaosu. Poslední třináctá kapitola pak přináší autorův pohled na perspektivy používání modelů a popsaných přístupů. Publikace je doplněna CD, a to je nutně velmi pozitivně ohodnotit. Umožňuje s pomocí softwaru Powersim uživatelům provádět laboratorní simulační experimenty a interaktivně formalizovat představy o parametrickém chování objektu v dynamických souvislostech.
124
Němcová
Monografie je napsána čtivým, srozumitelným odborným jazykem a rozsah tří set stran je úměrný cíli, který si autor předsevzal: předložit „ucelenú metodiku analýzy a syntézy sociálno-ekonomických systémov“. [1, str. 8] Metodiku, která je založena na systémovém přístupu a je blízká reálné řídící praxi. Publikace je určena manažerům, kteří hledají ve své činnosti způsoby, jak více respektovat dynamičnost a komplexitu procesů a organizací, které řídí. A je také určena vysokoškolským studentům jako učebnice. Knihu je ale možné doporučit všem, kteří se zajímají o systémový přístup.
SEZNAM POUŽITÝCH ZDROJŮ [1]
PRNO, I. Dynamika sociálno-ekonomických procesov : simulovanie dynamiky v sociálnoekonomických systémoch. Bratislava: Veda, 2012. ISBN 978-80-224-1250-6
Acta Informatica Pragensia 2(2), 2013, 125–142, DOI: 10.18267/j.aip.30 Online: aip.vse.cz
Sekce / Section: Zamyšlení / Reflections
(In)formování sociálních systémů Miloš Vítek1 1
Filozofická fakulta, Univerzita Hradec Králové, Rokitanského 62, 500 03 Hradec Králové [email protected]
Abstrakt: Původní orientace systémového inženýrství na tvrdé technologické systémy dosud převládá. Je ale nutná pokročilá pozornost k navrhování sociálně kulturních systémů. Pojem sociálního systému je dobře znám z 20. století z prací Parsonse, Luhmanna, Habermase, Bourdieu, Foucaulta aj. Příspěvek vybírá několik základních myšlenek o sociálních systémech podle filosofie a sociologie modernity. Záměrem je aktualizovat systémové inženýrství a více je zapojit do systémových studií v České republice. Jedná se o teze k 45. ročníku konference Systémové inženýrství (SYSIN 2014). Klíčová slova: filosofie; sociologie; systémový přístup; systémové inženýrství; sociální systémy; informatika.
Title: (In)formation of social systems Abstract: The original orientation of Systems Engineering on hard technological systems is still prevailing. But an advanced respect to a design and redesign of sociocultural systems is necessary. The notion of the social system is well known since the 20th century from excellent works of Parsons, Luhmann, Habermas, Bourdieu, Foucault, etc. The contribution selects some fundamental ideas on social systems from philosophy and sociology of modernity for the purposes of an up-to-date Systems Engineering and it shows their incorporation in significant system studies on design of sociocultural systems in the Czech Republic. This is thesis of the 45th Conference on Systems Engineering (SYSIN 2014). Keywords: Philosophy, Sociology, Systems Approach, Systems Engineering, Social Systems, Design, Information
126
Vítek
ZAMYŠLENÍ
„Je užitečné tvrdě pracovat, aby měl člověk dostatek, avšak je hloupé pracovat tvrdě, aby měl člověk více než dostatek.“ Herman Daly, emeritní profesor Fakulty veřejné politiky, University of Maryland „Když přestaneš cestovat, dorazil jsi k cíli.“ japonské přísloví „Já jsem především zklamán z toho, že ta většina, která rozhoduje u voleb, má mentalitu čtenářů bulváru. Ta úroveň se dá zlepšit jen neustálým pomalým vzděláváním.“ Zdeněk Svěrák
1 ÚVOD Podle psychologů dostatek informací nestačí k lidskému jednání, protože neověřitelnost informací umožňuje manipulaci („překrucování faktů ve prospěch původců informací“). Ani systematické informace ještě nedovolují svobodné a správné rozhodování a jednání, spíše nás od něho vzdalují. V příspěvku se snažím prohloubit chápání CELISTVÉ INFORMAČNÍ PRÁCE až za obvyklé představy. Vychází mi závěrem, že kromě technologické a psychologické praxe potřebujeme ještě sociologii a filosofii. Připomenutá psychologie (jmenovitě Carl Gustav Jung) nás vybízí, abychom nezůstávali dětmi - ve smyslu, že potkáváme jen lidi nedospělé, že děti mají děti, děti učí děti atd., nýbrž abychom směřovali k probuzení, dospělosti a bdělosti, která se anglicky nazývá awareness (též: „citlivost k podmínkám, okolí a vývoji“). Ve skutečnosti se nám probudit nechce, jsme zamilovaní do svých iluzí, nechceme radikální změnu, ale jen krátkodobou úlevu, jsme lstiví a vychytralí, hrajeme divadlo. Učme se však vidět pravou hodnotu věcí a pochopit ji. Jde spíše o snahu naslouchat než o pohodlnost přejímat už hotové myšlenky. Žádná myšlenka nemůže totiž adekvátně popsat skutečnost, pravda se zjevuje až na konci nesnadného procesu. V něm musíme přezkoumat všechno a kriticky přistoupit ke všemu, čemu věříme. Než začneme věci napravovat, pokusme se je pochopit. Tedy nikoli věci komentovat, posuzovat, zasahovat do nich, jen jim porozumět, radí obvykle na úvod psychologové. Nevědomý život je mechanický, naprogramovaný1, manipulovaný. Někteří lidé se celý život nemění, vy víte, co vám odpoví. Posloucháte je, ale důležitější je poslouchat sám sebe. Vaše bdělost je lampa, osvětlující celý prostor, jste otevřeni všemu (angl. self-reference značí sebevztažnost, autoreferenci). Např. dobrý řidič auta je otevřen vůči čemukoli. Skutečnost je celistvá, zatímco slova a pojmy dělí skutečnost na kousky. Myšlenky tříští vidění, tušení a prožívání skutečnosti jako celku. Abyste poznali 1
Setkáváme se s lidmi, kteří jsou naprogramováni na zahálku (zpravidla u televize), ale naopak také s lidmi, naprogramovanými na hyperaktivitu. Ti únavu z práce překonávají zvýšeným nasazením, péči o zdraví přehánějí v nesmyslných dietách, náboženství stupňují až k nesnášenlivosti s katolíky, nevěřícími a posléze se všemi lidmi. Tak či onak, většina lidí je naprogramovaných jako stroje, se kterými lze zvnějšku manipulovat jako s věcmi, při čemž ztrácejí soukromí a intimitu. Ve veřejné sféře (politice, správě) pak jsou většinovými vykonavateli totality.
Acta Informatica Pragensia
127
skutečnost, musíte poznat, co je za věděním. Někdy musíme projít neštěstím, abychom uvěřili, i když toho víme příliš mnoho. Lidé celý život bojují, ačkoli mají mnohem víc, než je k životu třeba. „Sám Ježíš Kristus nemohl pro mnohé své posluchače nic udělat“ (svatý Augustin). Jak zrušit své naprogramování na peníze, úspěch, přátelství? Plně si uvědomte, že jste naprogramováni jako stroje! Mezi věděním a chápáním, mezi informací a bdělostí je velký rozdíl. Nemůžeme spáchat nic špatného v bdělosti, ale můžeme něco napáchat, přestože máme informace o tom, co je špatné. Nejsme si vědomi co činíme, zapletli jsme se do znalostí a informací. Zaslepujeme sami sebe, vidíme něco jako dobré, přestože víme, že je to špatné. Jsme vyzýváni k bdělosti, zvykněme si proto na drnčící telefon, unavené nervy, volant v ruce – to je skutečnost, kterou prožíváme na vlastní kůži. Ve skutečnosti není už kam jít, protože už tam jsme. Jsme dávno ve spojení se vším, co je, co právě probíhá, co probouzí naši zvědavost (srov. Rob Dietz & Dan O´Neill, Enough is Enough, San Francisco: Berrett-Koehler Publ., 2013, 240 stran). Psychologie „pro pokročilé“ nabízí, co udělat pro změnu sebe sama. V prvé řadě je to vhled, který nás zaměřuje na to, co právě je. „Systém je právě tak dobrý či špatný, jako ti lidé, kteří ho používají“ (Arrupe). Není třeba vyvíjet úsilí, potřebujeme vhled, pochopení a bdělost. Neustále svádíme nějaký boj – a skoro nic nechápeme. Probuzená osoba netančí tak, jak píská společnost, nýbrž tančí na hudbu, která vychází z ní samé. Naučte se vychutnávat stravu, kterou nabízí život: dobré jídlo, dobré víno, dobrou vodu. Nehoňte se za umělými dráždidly. Zpomalte, ochutnejte, přivoňte, zaposlouchejte se, ať se vaše smysly probudí. Existuje rozdíl mezi analýzou a bdělostí, mezi informací a vhledem. Informace není vhled a analýza neprobouzí uvědomění. Vědomosti nevedou k uvědomění, tedy k bdělosti. Máme informace, ale nejsme bdělí. I když máme všechny informace, které potřebujeme, nejde o informace, jde o to, být si vědom skutečnosti. Pravdu postupně ochutnáváme a osaháváme, až ji ucítíme, změníme se, dokud ji ale máme jen ve své hlavě, nezměníme se. Vhled (angl. insight, též: „vnitřní či mentální vidění, náhlý vjem celého řešení, proniknutí až k porozumění“), nikoli analýza. Vhled nepředpokládá nutně analýzu. Zážitek „aha“ - o ten hlavně jde, to je vhled. Navíc platí charisma, jehož nositelé nedělají jen určitou práci, ale jsou pro takovou práci stvořeni. Poslouchat jejich slova působí jako zjevení, jsou to svatá slova. Své studenty můžeme zkazit tím, že naděláme specialisty z lidí šťastných, milujících, jednoduchých a bezelstných. Nechme raději žáky, aby sami formulovali svého hodnoty a věřme, že budou dobré a sociální. Buďte spolu se žáky ve spojení s přírodou, se zajímavou prací, v rozhovorech o věcech vám blízkých. Nezůstávejte u prázdného a bezduchého života, který se živí popularitou, uznáním a chválou, začněte se živit něčím jiným a mnohem výživnějším, krátce řečeno: duchovním. „Moudrý se spokojuje dosažením výsledku“ (Lao-c´). Nenechte své duše zemřít. To je program na celý život (srov. Anthony de Mello, Bdělost, Brno: Cesta, 2004, 223 strany). Předložený text exponuje problematiku výroční 45. vědecké konference o systémovém inženýrství. S pravidelným vydáváním edice SI začala Ústřední skupina systémového inženýrství (vedl ji doc. Ing. Zdeněk Dráb, CSc., autor patřil k jejím členům) na Komitétu aplikované kybernetiky (KAK) Československé vědecko-technické společnosti (ČSVTS) v Praze od roku 1969. Po roce 1989 převzala vydávání VŠCHT, později Univerzita Pardubice (v té době jsem tu byl děkanem FÚS [5 a 6]). Dále navazuji na tituly Budoucnost systémového vědění (2010), Systémové konflikty (2011), Systémy složité a zjednodušené (2012) a Systémové inženýrství a informatika (2013), připravené Ústavem
128
Vítek
systémového inženýrství a informatiky na Fakultě ekonomicko-správní Univerzity Pardubice, Studentská 84, 532 10 Pardubice. V systémovém inženýrství dospíváme po padesáti letech k pojetí sociálně kulturních systémů (sociocultural systems) [3]. Ty vycházejí ze systémů sociálních, o nichž pojednávala teorie systémů, ale i filosofie a sociologie modernity ve XX. století [4], [7]. Pokládáme za užitečné zopakovat výběr ze spektra mezinárodní literatury o sociálních systémech z hlediska jejich formování, aniž bychom základní informace považovali mezi studenty a učiteli již za notoricky známé – spíše ze zkušenosti soudíme, že také tu je potřebné „neustálé pomalé vzdělávání“. Praktickou potíž spatřuji v tom, že „většinový“ volič, čtenář a student je spokojen s tím, co ví a jak myslí, a jen velmi malá menšina jich skutečně touží po vyšší kvalitě jednání. Prostě: většina vystačí s neuspořádaností a chaosem levného a rychlého internetu. A nadále si s Plavci-Rangers prozpěvuje „jsem rád, že jsem zůstal, jaký jsem“.
2 FORMULACE PROBLÉMU Podíváme-li pozorně na jednotlivé články ve vědeckých časopisech a sbornících nejen v České republice, zjišťujeme, že autoři téměř bez výjimky postrádají ucelený pohled na svět, v němž právě zkoumají chemické sloučeniny, skupiny lidí, malé firmy apod. A přece historické, kulturní a civilizační prostředí bude mít zásadní význam pro užití jejich zjištění, pro pozitivní přínos jejich specializované vědecké práce. Abychom si ujasnili kvality celostného, či také holistického, respektive syntetického pohledu na dnešní svět [5], shrneme si krátce myšlenky příkladu - dnes celosvětově diskutované knihy o globalizaci Západu [2]. U nás setrváme spíše u liberálně demokratického stanoviska Hayeka, Friedmana aj. (viz např. Ježek T. (ed.) Liberální ekonomie. Kořeny euroamerické civilizace. Praha: Prostor, 1993).2
2
Připomeňme si: „Pojetí demokracie, které zastávali otcové zakladatelé [Jefferson, Franklin, Madison, Adams a Washington], bylo utkáno ze čtyř myšlenek: 1/ politická demokracie záleží v široké účasti na společenském rozhodovacím procesu… 2/ myšlenka osobních a občanských svobod … 3/ myšlenka rovnosti příležitosti … 4/ lidé by měli mít stejnou odměnu. Ústřední myšlenka americké revoluce byla velmi odlišná od hesla „svoboda, rovnost, bratrství“, tvůrci americké ústavy byli mužové velmi pragmatičtí, na politickou demokracii se dívali jako na prostředek k zajištění své osobní svobody. Jedním ze způsobů, jak se takového úkolu zhostit, je vytvořit dogma o Novém člověku, který bude vaším stavebním materiálem… Demokracie je systém omezování moci, včetně moci většin… tím, že se zabraňuje jakékoliv koncentraci moci, i v rukou většiny“ (Herbert A. Simon (*1916), op.cit. 1983, Ježek str. 197-214). „Intelektuálové jsou obchodníci použitými myšlenkami. Není to ani funkce původního myslitele, ani učence nebo znalce. Typický intelektuál nemusí mít speciální znalost něčeho zvláštního, nemusí být dokonce ani zvláště inteligentní, aby svou roli zprostředkovatele šíření myšlenek vykonával. Tato třída sestává z novinářů, učitelů, ministrů, přednášejících, publicistů, rozhlasových komentátorů, spisovatelů a umělců, zpravidla jsou však amatéry, pokud jde o podstatu toho, co se tlumočí. Jsou to intelektuálové v tom smyslu, že rozhodují, které názory se k nám mají dostat… Učenec, který se stává rektorem univerzity, vědec, který dostává na starost ústav přestávají být učenci nebo experty a posuzují všechny problémy pouze ve světle jistých módních obecných idejí. Profesor Schumpeter zdůrazňoval, že je to nepřítomnost přímé odpovědnosti za praktické záležitosti... To, co nám chybí, je liberální Utopie…dokud neuděláme z filosofických základů svobodné společnosti živý intelektuální problém, jenž provokuje důmysl a imaginaci“ (Friedrich A. von Hayek (*1899), op. cit. 1949, str. 217-237).
Acta Informatica Pragensia
129
Celostnost pohledu autorů [2] pochází již z toho, že Hervé Juvin je především ekonom a Gilles Lipovetsky filosof a sociolog. Jejich názory se logicky neshodují, mnohdy bývají až protikladné: u Juvina spíše pesimistické, u Lipovetského spíše optimistické. Podívejme se ale podrobněji na jejich v knize krystalizující světový názor (Weltanschauung). Podstatné mi připadá rozlišit zjednodušené a složité v tomto světovém názoru. Zpravidla se soudí, že složité pochopíme prostřednictvím zjednodušeného, přičemž jednoduché vystupuje jako přesvědčivý závěr [3]. Co ale předkládá Lipovetsky, je zjednodušený výklad kultury, který dále překáží výkladu složitému, o nějž se snaží Juvin. Nezískáme pak ani jednoduchý závěr jako výsledek. Začněme zjednodušeným výkladem problematiky. Jsme svědky druhé globalizace (první proběhla od šedesátých do začátku devadesátých let), kterou lze chápat jako kulturu nového typu, hyperkulturu či podle Lipovetského [2, str. 17-112] světokulturu (culture-monde). Ta znamená revoluci ve sféře informačních a komunikačních technologií, expanzi kulturního průmyslu (filmy, hudba, seriály, sportovní utkání) sledujícího rentabilitu, marketing a komercializaci, sestup ducha do kulturního kapitalismu s ekonomikou kreativních oborů výroby (značkové zboží, móda, turistika). Světokultura posvěcuje dvě kosmopolitní ideologie – ekologii a ochranu lidských práv. Připouští modely jiné než západní (multiple modernities), které se nakonec ubírají stejnými cestami variant modernosti. Kultura byznysu všude vítězí, úspěch znamená totéž co peněžní zisk, komerčního umělce či vědce charakterizují okamžité uznání, mediální proslulost a komerční úspěch. V umění je trh jednotlivých států nahrazen globálním trhem, jehož ohnisky jsou dražební síně Christie´s a Sotheby´s s díly Warhola, Rothka, Koonse, Bacona apod. Ke komercializaci kultury přispívají pobočky slavných muzeí, např. v Abú Zabí pobočka Louvru. Divoké konzumerství šíří hypermarkety a obchodní centra se širokou nabídkou. Konzumujeme stále více služeb a konzumujeme je všude, spotřebitelský blahobyt je vytouženým snem pro téměř všechny lidi na zemi. Konzum přináší pouze celosvětovou uniformitu, podobnost a stereotyp, tedy pseudouniverzalitu. Nekupujeme pouhé výrobky, jsme spotřebiteli celebrit, které jsou pro hyperkonzumenty pevnými záchytnými body. Hnací silou světokultury je věda a technika, tzn. „systém techniky“ (Jacques Ellul), s ničím neomezovanou efektivitou. Ta připouští rozmanitost životních stylů a kult odlišnosti skupin a jednotlivců. „Hodnota ducha“ (Paul Valéry) je však deklasována, slovo intelektuál má pejorativní nádech, prodej knih z humanitních věd klesá, filosofičtí učitelé se skoro nevyskytují. Hodnotu ducha nahradila zábava, sport, média, cestování a rychlé informace, je žádána kultura obrazu, těla a spotřeby. Vysoká kultura sice není sesazena z trůnu, avšak publikum k ní zaujímá stejně uvolněný postoj jako ke konzumaci toho nejobvyklejšího zboží. Tak se vysoká kultura proměňuje v intelektuální hrátky bez reálného dosahu a hlubších emocí. Hypermoderní jedinec běhá po parku s ipodem v uších a cvičí jógu. Světokultura se kryje s nástupem informační a komunikační společnosti pod nadvládou USA, její sdělení jsou však v různých zemích přijímána různě. K největšímu počtu konfliktů nedochází mezi civilizacemi, nýbrž uvnitř jedné civilizace (např. v arabském světě). Dochází ke kulturní odvetě nadměrně konzumního světa, který už lidem nedokáže poskytnout žádný smysl života. Hypermoderní doba spěje k deregulaci, rozkladu institucí a ztrátě záchytných bodů. Lipovetsky vidí východisko v „kultuře dějin“, která nám pomůže lépe chápat svět, v němž žijeme. „Lidstvo musí zmobilizovat aktivní schopnosti každého jedince a dát tvůrčím talentům možnost uplatnění… Z toho hlediska musíme kulturu chápat jako oblast, která má lidem otevírat nové horizonty, podněcovat v nich silné
130
Vítek
emoce a nést je za hranice pouhého konzumního životního stylu. Takový by měl být i hlavní humanitně sociální úkol školství. Hlavním posláním školy a kultury je člověku poskytovat návody, jak překonat sám sebe, kultivovat v něm bohaté a činorodé emoce a probudit tvůrčí představivost“ [2, str. 99]. Vcelku to znamená proces moderní racionalizace všech národů, celosvětové kosmopolitizace a rozšíření univerzalistických tendencí, které vyšly ze západní civilizace. Vidíme, že zjednodušené pojetí dnešního světa a jeho kultury se nakonec rozplývá do neurčitých, byť ušlechtilých, rad a doporučení, o jejichž naplnění musíme vážně pochybovat. Nezbytné je proto poohlédnout se po složitém pojetí, jehož nejbližším příkladem je výklad Hervé Juvina na následujících stránkách [2, str. 113-115]: „Kultura se potí, vrhá stín a rezaví omývána kultem bratrství, solidarity, usmířeného lidství. Kultura je to, co vrže a skřípe v precizním soukolí továrny na spokojenost, výrobu veřejného mínění, souhlas a rezignaci… Co znamená kultura oproštěná od náboženství? Co je to za kulturu, která opomíjí sakralitu? Čím je krásno, které už nepromlouvá o nebesích?… pozorujme rostoucí konformitu životů, ovládaných technickými vymoženostmi, slavnými značkami a předem dohodnutými odlišnostmi. Podřizování kultury právu, pravidlům a diktátu užitečnosti je projevem situace, v níž se má kultura stát nástrojem čehosi jiného, co stojí pod ní nebo co je přímo nekulturní… Světokultura je jiné jméno pro ekonomizaci, která volá muže a ženy, aby vydali svůj užitek. Vládne lest, úskok a záliba v novém a neslýchaném. Pochválíme mobilitu, kosmopolitismus se promění v mravní princip, osobní zájem posvětíme individuálními právy a trik je hotov. Kultura dnes stojí na roveň věcem, které se vyrábějí, a věcem, které se prodávají, protože patří mezi věci, které se počítají.“ Tak je světokultura kulturou zmatení, kdy mluvíme o univerzalitě, ačkoli míníme pouhou uniformitu jako redukci kultur na ekonomii. Světokultura je (neo)liberálním projektem, zbaveným dědictví dřívějších kultur a prosazujícím se třemi způsoby: 1/ míříme k jednotě (horečně se snažíme dojet někam jinam, kde už ale žádné jinde není); 2/ jsme svědky překonání kolektivních struktur ve jménu lidských práv (tzn. práv absolutního individua); 3/ na řadu přichází tvrdá revize skutečnosti (hudba, malířství, film, literatura, filosofie i teologie žijí nebo přežívají jen jako způsoby trávení volného času). „Neboť světokultura je jen výkladní skříň, špatně zastírající ničení světa. Je fikcí, která se zatím drží při životě, představuje scénu, již brzy rozmetají její neskončené tirády … přichází období po světokultuře“ [2, str. 167]. Kultura a globalizace tak jsou ostré protiklady: kultura je pojmenováním něčeho singulárního, světokultura vzývá uniformitu - a ze všeho nejvíc připomíná podvod, díky němuž obchodník může obchodovat s kulturou stejně jako s otroky, ženami, lidskými orgány nebo dětmi k adopci. „Pod zástěrkou dominantního kosmopolitismu se prosazuje implicitně totalitní projekt: individuum zbavené všeho, co z něj činilo osobu, je podrobeno kontrole liberální ideologie“ [2, str.192]. Tak jako v celých dějinách lidstva se náprava neobejde bez individuální vzpoury proti manipulaci („překrucování“). H. Juvin očekává, že lidstvo se od liberálního modelu obrátí k tzv. politice života, která má tyto znaky: 1/ dochází k překonání tradiční ekonomie (opírala se o mezinárodní srovnání a kritéria rozvoje, tématem se stanou nedostatek, přežití a základní bezpečnost); 2/ přichází renesance územní svrchovanosti (politika přežití bude výlučně politikou obce a územní správy – srov. též [6]); 3/ dospíváme k úpadku samotné víry v ekonomii (v důsledku mravní a existenční úzkosti); 4/ nastává zápas o moc (vzpoura vykořeněných a izolovaných jednotlivců a národů); 5/ návrat nedostatku světokulturu nakonec smete (naše nové barbarství přineslo přizpůsobivost, normy, práva, ignoranci a
Acta Informatica Pragensia
131
lhostejnost, proti tomu „plnou silou se vrátí smrt, utrpení, násilí, vášeň, poezie a zodpovědnost“ [2, str. 173-175]). Zaměřme se ještě na pojetí sociálních systémů u některých významných sociologů XX. století. Výchozí pojmy lze nalézt u Maxe Webera (1864-1920), Émile Durkheima (1858-1917) a Talcotta Parsonse (1902-1979), i když jejich názory prošly dlouhodobou kritikou, opravami a rozšířením. Tak Émile Durkheim ukázal, že modernita definuje komplexní společnost, složenou z různých skupin, a navodil problematiku sociální diferenciace a integrace (Společenská dělba práce, Brno: CDK, 2004; orig. 1893). Patologické sociální diferenciace shrnul pod názvem anomie, tu charakterizoval též jako „nemoc z nesmírnosti“. Nesoulad mezi individuálními potřebami a sociálními možnostmi může lidi dohánět až k sebevraždě. Sociální integraci podle něho podporují individuální a společné normy, které prosazují zejména výchova a náboženství. Předpokládal určitý soubor společně uznávaných hodnot, které se zapojují do vytyčování vlastních cílů. Tento kulturní rámec nikdy zcela nenařizuje, jak se chovat. Hodnoty jako normy a role působí pouze jako omezení výběru. Rostoucí sociální diferenciací, integrací a koordinací mezilidských interakcí se zabýval Talcott Parsons tak, že mu vyšla koncepce jednoty moderní společnosti jako sociálního systému, směny v rámci systémů a socializace jako postupného zapojování jedince do systémů sociální interakce. V systému jednání jsou prvky: aktér, cíle, situace a zvláštní vztahy mezi těmito prvky. „Sociálno jako strukturovaný systém je dáno dřív než jakákoli forma jednání“ (The Structure of Social Action, Glencoe/Illinois: The Free Press, 1949, str. 44). Smysl situace a jednání přesahují vždy individuálního aktéra a vyžadují koordinační mechanismy. Podstatné je, že sociální řád nemůže být jen nahodilým výsledkem preferencí konatelů, ani nemůže být stabilní bez jistých normativních prvků. Vcelku se Parsons staví proti analytickým přístupům utilitarismu a positivismu. Problém řádu spatřuje ve spojení psychologizující teorie motivace a teorie strukturálního chování sociálních systémů. K tomu rozvíjí teorii čtyř funkcí (AGIL – Adaptation, Goal attainment, Integration, Latence), teorii médií směny (peníze, moc, vliv a působení hodnot) a teorii socializace jako předpokladu integrace společnosti (matka a dítě, otec a rodinný systém, škola a párová skupina). Při systémové koordinaci společnosti pojímá modernizaci jako kybernetické schéma ve službách skutečného kulturního determinismu. Modernizace postupuje přes narůstající rozdělování aktivit, až nakonec každý prvek plní novým způsobem specializovanou funkci v novém, komplexnějším a hierarchizovanějším systému (Společnosti, Praha: Mladá fronta, 1971). O společnostech málo a vysoce diferencovaných pojednal Pierre Bourdieu (1930-2002). Přispěl k vytvoření modelů transhistorické analýzy jako způsobu relačního myšlení, které lze aplikovat strukturálně na různé společnosti a různá období a to s cílem odhalit transhistorické konstanty vztahů. „Evoluce společnosti směřuje k tomu, že se objevují univerza (která nazývám pole), jež mají vlastní zákony a jsou autonomní … vše, o co v nich jde, posuzují podle kritérií, která nemohou být překonána pravidly jiných světů“ (Raisons practiques, Paris: Seuil, 1994, str. 159). Do středu své sociální vize staví model souvislosti mezi sociálními pozicemi a individuálními dispozicemi. Zde zvyk (habitus) uchovává ontologickou spoluúčast, neuvědomělou znalost, nezáměrnou intencionalitu a praktické zvládání regulérností světa. Habitus je definován systémem trvalých a transponovatelných dispozic, předurčených k činnosti jako struktury strukturující. Habitus je přijatou sociální strukturou, která obsahuje veškeré dějiny pole, je systémem trvalých dispozic. Ideálem je představa domova, v němž jsou všechny dispozice v souladu s pozicemi. Zatímco v tradičních společnostech převažuje
132
Vítek
symbolický kapitál a stát se odpradávna jeví jako zásoba symbolického kapitálu, podle něhož jsou strukturovány populace i myšlení, v moderních společnostech ekonomický kapitál převažuje nad kapitálem symbolickým, sociálním a dokonce i nad kapitálem kulturním. Kodifikace je zásadní, protože zabezpečuje minimální komunikaci. V poli moci vystupuje pojetí sociální dominance jako neviditelná struktura, která organizuje chování aktérů a je téměř mechanicky prováděna v řádu věcí. Na Parsonse tvořivě navázal Niklas Luhmann (1927-1998) popisem integrace moderní společnosti, která zůstává silně nahodilou a nikdy ne zcela stabilizovanou. Diferenciace vede k nárůstu schopností vlastních každému (pod)systému a možností koordinace mezi různými systémy. Nahodilost sociálního života znamená, že individuální možnosti i interakce se mohou odehrávat pokaždé jinak, tj. vždycky existují ještě jiné možnosti. Komunikace se zakládá na rozlišení Ego a Alterego, což nemusí být různé osoby: každý systém dělá, co chce ten druhý, pokud ten dělá, co chce ten první. Schopnost zacházet s informacemi umožňuje pozorovat druhého jako systém v prostředí, uchopit jeho autoreferenční formu na základě vlastního pozorování. To, co se pozoruje, je vznikající řád, totiž sociální systém, přičemž nahodilost se stává zcela sociální. „Sociální řád vzniká ze vzájemného pozorování uskutečňovaného autoreferenčními systémy“ (Soziale Systeme: Grundrisss einer allgemeinen Theorie, Frankfurt: Suhrkamp, 1984; česky Sociální systémy, Brno: CDK, 2006, str. 123). Luhmann zachytil posun systémového paradigmatu od uzavřených systémů k systémům otevřeným a dále k systémům autopoietickým, které si uchovávají svou identitu navzdory transformacím díky tomu, že si definují vlastní informaci. Rozlišil autoreferenční systémy žijící (buňky, mozek, organismy), psychické a sociální. Nesmírná komplexita prostředí dnes vyžaduje, aby se systém soustředil pouze na určité případy. Prvotní funkcí systému je redukce komplexity jeho okolí. Uzavřenost autoreferenčního systému má v sobě možnost otevřít se čili každý systém si autonomním způsobem upravuje vztah závislosti či nezávislosti na okolí. Na operační úrovni pak není žádný kontakt s okolím. Vzhledem k autopoietickému /“sebe-tvořivému“/ charakteru autoreferenčních /“sebe-vztažných“/ systémů je komunikace velice nejistá a vždy nahodilá. Utváření (formation) systému v sobě zahrnuje komunikaci a vylučuje vše ostatní: každý systém vytváří to, co si vybral za svou informaci. Horizontem všech možných komunikací je společnost ve své úplnosti. Jsou tu tři typy komunikačních médií: jazyk, distribuční média a komunikační média. Evoluce sociálních systémů je umožňována diferenciací okolí od systému, přičemž každá změna v systému způsobuje změny v okolí. Narůstající komplexitě společnosti odpovídá nárůst diferenciace systémů, systém se opakuje a zjednodušuje v rozmanitosti rozdílů systém-okolí. Moderní společnost je diferencována především funkcionálně. Ve vysoce složité společnosti už není možné centrální řízení, neboť nemá schopnost synchronizovat množství různých procesů. Přesto je moderní společnost hyperintegrovaná, když autopoiesis umožňuje každému dílčímu systému zajistit si vlastní řízení. Narůstající diferenciace se může projevovat nárůstem počtu nepravděpodobných situací. „Komplexita v daném smyslu znamená selekční tlak, selekční tlak znamená kontingenci /omezení/ a kontingence znamená riziko“ (op.cit., česky str. 39). Koncept rizika v moderní společnosti není pozorováním prvního řádu, ale spočívá na rekonstrukci fenoménu ze všech hledisek nahodilosti (Soziologie des Risikos, Berlin-New York: de Gruyter, 1991). Složitost modernity vyžaduje od jedinců, aby rozvíjeli novou formu důvěry v systém, se kterou souvisí jistý nezájem o přísnou kontrolu výsledků a posílení sebekontroly. Sociální integrace přestává být normativní a založená na nějaké institucionalizaci, více spočívá na kognitivních schopnostech členů. Po opuštění teorie společnosti založené na socializaci se do společnosti dostává nahodilost, kdy pozorování uskutečňujeme pokaždé z jiné perspektivy. V podmínkách této nahodilosti sociálního
Acta Informatica Pragensia
133
života může být integračním principem trh, ovšem nikoli v neoliberálním pojetí absolutizovaných jednotlivců, nýbrž v původním sociálním pojetí Herberta Spencera [4, str. 150]. Při studiu politického systému zůstává aktuálním vklad Maxe Webera, třeba tím, že sice nešetřil chválou německé byrokracie, ale vnímal vážné nebezpečí z nedostatku skutečného politického vedení. V této situaci přisuzoval zvláštní úlohu parlamentnímu systému, aby chránil individuální svobody proti narůstající byrokratizaci a také proto, aby podpořil rozvoj politické třídy, z níž vyjdou opravdoví vůdci. Důležité je rozlišení úředníka a politika: „Úředník myslí na svou kariéru, na svůj plat a postavení, na profesní legitimitu svých schopností přesně aplikovat nařízení, bez ohledu na to, jaká jsou a co si o nich myslí. Politik se naopak žene za mocí a zodpovědnou funkcí, chce uplatnit své myšlenky svým osobním bojem. Jeho život je založen na získávání spojenců k tomu, aby mohl provádět svou politiku … Je tedy schopen odpovědně a s nasazením čelit nevyhnutelným konfliktům“ [4, str. 179]. Tato slova si můžeme domyslet pro vztah administrátora vědy a vědce jako realizátora odpovědné a realistické vědní politiky. Na Maxe Webera dnes navazuje jmenovitě Anthony Giddens (*1938). V knihách Politics, Sociology and Social Theory, Stanford University Press, 1995; Důsledky modernity, Praha: SLON, 2003 (orig. 1990); Modernity and Self-Identity, Cambridge: Polity Press, 1991 aj. ukazuje na nesmírné možnosti, které modernita skýtá.
3 METODA K problematice složitosti (complexity) máme nyní k dispozici české vydání významného díla filosofů Gillese Deleuze (1925-1995) a Félixe Guattariho [1], když originál z roku 1980 z francouzštiny přeložil Miroslav Petříček (autor Úvodu do současné filosofie, Praha 1997). Do myšlení o složitosti zavádějí některé nové, resp. obnovené pojmy: plošina, rhizom, stratum, konzistence, abstraktní stroj aj. Pokusíme se naznačit chápání těchto pojmů, např. jak státní správa v technologickém věku nabývá charakteru abstraktního stroje. Také naším výkladem se bude prolínat nadtitul [1], totiž Kapitalismus a schizofrénie, neboli rozpolcenost veškerého nazírání. „Neexistuje žádný univerzální kapitalismus o sobě, kapitalismus stojí na křižovatce všech možných formací, jde v podstatě o neokapitalismus – vymýšlí si svou východní i západní tvář, své přetvoření obou – směrem k nejhoršímu“ [1, str. 29]. Knihu [1] napsali její autoři jako rhizom a sestavili ji z plošin (viz Úvod str. 32). Slovo „plošina“ zavedl systémový vědec Gregory Bateson k označení „souvislé, v sobě samé vibrující oblasti intenzit, jejíž rozvoj se vyhýbá jakékoli orientaci k nějakému bodu kulminace nebo vnějšímu cíli“ (str. 31). Autoři „plošinou“ nazývají každou multiplicitu, která může být s ostatními spojena vnějšími podzemními stonky, až vzniká „rhizom“ a může se rozšiřovat. Shrnují: „RHIZOMATIKA = SCHIZOANALÝZA = STRATOANALÝZA = PRAGMATIKA = MIKROPOLITIKA“, což vysvětlují (str. 32) tak, že věci nevnímají od kořene, ale zprostředka, neshlížejí k nim ani nevzhlížejí, nevnímají je zleva doprava ani naopak. „Tvořte rhizom, a ne kořen, nikdy nesázejte! Nesejte, pěstujte odnože! Nebuďte jedním, ani mnohým, buďte multiplicitami! Kreslete linii, a nikdy ne bod! Buďte rychlí, i když stojíte na místě! Linie štěstí, linie boků, linie úniku! Tvořte mapy, a ne fotografie! … Rhizom nezačíná ani nekončí, je vždy ve středu, mezi věcmi, mezičlánek, intermezzo. Strom, to je příbuzenství, ale rhizom je spojenectví: vycházet ze středu, procházet středem, přicházet a odcházet, spíše než začínat a končit … proud bez začátku i konce, podemílající oba břehy a nabírající rychlost uprostřed“.
134
Vítek
„Strata“ jsou fenomény zhuštění na těle země, zároveň molekulární (vnitřně obsahované) a molární (zvnějšku vytvořené): nakupeniny, sraženiny, usazeniny. Tradičně rozlišujeme tři velká strata: fyzikálně chemické, organické a antropomorfické (neboli aloplastické). Stratum je artikulací z (formovaných) substancí a (kódovaných) prostředí – formy, substance, kódy a prostředí jsou abstraktními složkami každé artikulace. Seznam strat není nikdy vyčerpán, jsou pohyblivá a lze je mísit. „Stratifikace je tvoření světa z chaosu, kontinuální, obnovované tvoření. Klasický umělec je jako Bůh, který tvoří svět tím, že uspořádává formy a substance, kódy a prostředí, rytmy“ [1, str. 574]. Artikulace je uchopením obsahu a výrazu, mimo strata nemáme obsah, ani výraz, ani vývoj. Destratifikace vede do chaosu, destrukce a prázdnoty. Ve stratech tvoříme „uspořádání“ tak, že z prostředí vybíráme teritorium. Teritoriální uspořádání je pro člověka domovem s jeho charakteristickými vlastnostmi. Teritorium přitom překračuje prostředí, organismus i prosté chování. V uspořádání se výraz stává sémiotickým systémem (režimem znaků) a obsah pragmatickým systémem (činnostmi a trpnostmi). Každé uspořádání se dělí na strojové uspořádání (co se dělá?) a na uspořádání vypovídání (co se říká?). Uspořádání se dělí taktéž podle linií deteritorializace, které teritoriální uspořádání otevírají a vedou do jiných uspořádání, případně zavádějí uspořádání do abstraktních strojů. Vcelku je tedy uspořádání tetravalenční: obsah a výraz; teritorialita a deteritorializace, což platí mimochodem i pro uspořádání v dílech Franze Kafky, předního znalce byrokracie. Pro jiné umělce je důležité, že nejen strata, ale i uspořádání jsou soubory linií, kde linie je podřízena bodu, linie tvoří obrys a rýhovaný prostor (v případě rhizomu jde však o hladký prostor s multiplicitami stávání se a transformací). Máme též linie úniku, které se mohou zvrátit v linie smrti a destrukce (fašismus). Brutalita končí bez vítěze. Protikladem roviny uspořádání a vývoje je rovina „konzistence“ či složení, která nezná substanci a formu, ale spočívá abstraktně ve vztazích rychlosti a pomalosti mezi nezformovanými prvky. Konzistence vlastně provádí konsolidaci, když jedná uprostřed, skrze střed a proti finalitě, unifikaci a totalizaci (viz díla Spinozy, Kleista, Hörderlina, Nietzscheho). Plošiny tu připomínají těla bez orgánů, produkující intenzity, stávání se a hladký prostor. Tuto linii sleduje nomádské umění a putující kovodělnictví. „Je ponecháno, zachováno a tudíž tvořeno a jako jediné zůstává to, co zvyšuje počet spojení“ [1, str. 579]. Vrátíme se k pojmu „deteritorializace“ jako pohybu, jímž se opouští teritorium po linii úniku, která může končit až ve všeobecné černé díře (katastrofou). Může být kompenzována reteritorializací, která zatarasí linii úniku a nahrazuje ztracené teritorium. „Například není správné říkat, že státní aparát je teritoriální: ve skutečnosti provádí deteritorializaci, která je okamžitě překryta reteritorializacemi na vlastnictví, práci a penězích (vlastnictví půdy pochopitelně není teritoriální, ale reteritorializující) … můžeme deteritorializaci nazvat tvůrkyní země – nové země, světa, a nikoli pouze reteritorializace“ [1, str. 580]. Na ostří dekódování (např. individuace) a deteritorializace (např. dewesternizace) působí “abstraktní stroje“, které otevírají teritoriální uspořádání vůči uspořádání molekulárnímu, kosmickému, a utvářejí stávání se. Neznají formy a substance, v tom spočívá nejen abstraktnost, ale i přesný smysl stroje: „Abstraktní stroje se skládají z nezformovaných látek a neformálních funkcí … na technologické rovině ukazující jenom diferenciální rovnice nebo obecněji tenzory“ [1, str. 582]. Uspořádáním a konzistencí se zabývá schizoanalýza, která není pouze kvalitativní analýzou abstraktních strojů
Acta Informatica Pragensia
135
vzhledem k uspořádáním, ale také kvantitativní analýzou uspořádání ve vztahu k domněle čistému abstraktnímu stroji. Jako typy abstraktních strojů se rozlišují abstraktní stroje konzistence, stratifikace, překódování a axiomatické, např. stroj na zotročení překódovává nebo axiomatizuje zemi. Samotný abstraktní stroj není fyzický, není ani sémiotický. Je diagramatický, tj. funguje na základě látky, nikoli substance, prostřednictvím funkce, nikoli formy. Abstraktní stroj je čistá Látka-Funkcediagram nezávislý na formách a substancích, výrazech a obsazích. Diagram si tu uchovává nejdeteritorializovanější obsah a výraz. Funkcí diagramatického stroje je tvořit reálno budoucnosti, nový typ reality. Když konstituuje body tvoření nebo potenciality, není mimo historii, ale spíše před historií. Prostřednictvím abstraktního stroje vše uniká a vše se tvoří. Abstraktní stroje mají svá jména a data, deteritorializace hlasu a nástroje je vyznačena abstraktním strojem-Wagnerem, abstraktním strojem-Webernem atd. V matematice a fyzice se mluví o abstraktním stroji-Riemannovi, o abstraktním stroji-Galoisovi atd. Diagram zná pouze rysy a body, jež ještě patří k obsahu, výraz konstituuje indexy, ikony a symboly. Specielně, axiomatika „místo aby rýsovala tvořivé linie úniku a spojovala rysy pozitivní deteritorializace, všechny linie blokuje, podřizuje je bodovému systému a zastavuje algebraické a geometrické zápisy, aby se rozbíhaly do všech stran. To se stalo v případě indeterminismu ve fyzice: byl znovunastolen řád, došlo ke smíření s fyzikálním determinismem (Hilbert, Broglie). Věda tak jako všechno ostatní má v sobě šílenství stejně jako nastolování a znovunastolování řádu. Tentýž vědec může svým šílenstvím a pořádkem participovat na obou aspektech. Vědecká politika označuje tyto proudy uvnitř vědy, vedoucí k atomovým bombám, kosmickým programům atd. Je v ní odhodlání zastavit, nahradit diagram usazením se na úrovni strnulé abstrakce… Všechny metody trancendentalizace jazyka, Russellovou logikou počínaje a Chomského gramatikou konče, upadají do té nejhorší abstrakce. Proto pragmatika není doplňkem logiky, syntaktiky a sémantiky, ale naopak základním prvkem, na němž závisí vše ostatní“ [1, str. 165170]. Jinak dochází k aroganci a izolaci vědce, filosofa i umělce. Zvláštní pozornost zasluhují válečný stroj a státní stroj, které se rozvíjely paralelně s tím, že „násilí válečného stroje se může jevit mírnější a jemnější než násilí státního aparátu … Mýtus přízraku, živého mrtvého, je mýtem práce, nikoli války. Státní aparát potřebuje mít na vrcholu a ve svém základu předem handicapované, preexistující zmrzačené nebo mrtvě narozené, vrozeně postižené, jednooké a jednoruké“ [1, str. 486]. Buď stát válečný stroj nemá (má policisty a žalářníky spíše než vojáky) nebo nemá válečný stroj ve formě vojenské instituce nebo veřejné funkce. Stejně jako soukromé vlastnictví přepokládá veřejné vlastnictví státu či předpokladem měny je daň. Stát je vždy předpokladem, už nejstarších společností, kde se rodí dospělý a povstává náhle, již za neolitu, nikoli evolucí, nýbrž jako nepodmíněný Urstaat (již Aristoteles v Politice upozorňoval, že celek existuje dřív než části). Prastát se projevuje jako systém „strojového zotročení“ neboli první megastroj (Lewis Mumford). „Společenská uspořádání definujeme strojovými procesy, a nikoli způsoby výroby“ [1, str. 498]. Mezinárodní jednotící organizace neroste z jediného centra, nýbrž rozrůstá se jako rhizom. Tvoří prostředí prostředníka mezi různými koexistujícími řády – ekonomickými, komerčními, náboženskými, uměleckými atd. Proto mj. neexistuje ekonomická teorie mezinárodních vztahů, protože ty spočívají na heterogenních útvarech. Stát má jako aparát zajetí přivlastňovací sílu, podřizující si jiné procesy. K nim patří procesy městské. „Město je korelátem cesty. Existuje jen v závislosti na dopravě a okruzích. Definují ho vstupy a výstupy, je nutné, aby do něho něco
136
Vítek
vstupovalo a něco vystupovalo. Je to síť, protože je fundamentálně ve vztahu s jinými městy. Městská moc vymýšlí ideu úřadu, velmi odlišnou od státní byrokracie. Ale kdo dokáže říci, kde je větší občanské násilí?“ [1, str. 495]. Proti městské moci, založené na komunitě občanů tvořících pravou polis, je centrální moc hierarchická a konstituuje byrokracii, kde moc je nahoře a dolů postupuje podřízenost. Každý stát je globální (nikoli lokální) integrací. Lokální integrace měst tvoří síť měst, která se nekryje s mozaikou států, například komunita hanzovních měst existovala bez byrokratů, bez armády a bez legálního statutu. Jak řekl Braudel, „jsou tu pokaždé dva běžci, stát a město, a stát obyčejně vítězí“ [1, str. 497], když násilně a s instinktivní náruživostí města zkrotil. Stát nás drží v zajetí, dovozují Deleuze a Gauttari, a to prostřednictvím tří mechanismů: renty, zisku a daně. Renta diferenční a absolutní se vztahuje k půdě a jejímu vlastníkovi, zisk plyne z práce a nadpráce, připadá podnikateli. Daně pocházejí ze srovnání zboží a monopolistického přivlastňování peněz jako prostředku srovnání. Jinak řečeno: práce vždy předpokládá nadpráci, diferenční renta rentu absolutní, obchodní peníze daň. Model aparátu státního zajetí popisuje operace srovnání a přivlastnění. „Státní násilí má zvláštní charakter: je obtížné je určit, protože se vždy prezentuje jak dané“ [1, str. 512], tak je současné vlastnictví dáno původní akumulací. Navíc tu je jakási ritualizace násilí: „státní policie nebo právní násilí spočívá v tom, zmocnit se a zároveň vytvořit právo zmocnit se“ [1, str. 513]. V právním státě (Rechtstaat) právní násilí přispívá k vytvoření toho, proti čemu se obrací, tj. zlodějů nebo zvrhlíků. Mafián ztělesňuje syntézu ducha či vítězné image doby (R. Saviano). Od strojového zotročení, kdy lidé jsou součástí stroje, odlišujeme „sociální podřízení“, kdy je člověk podřízen státnímu aparátu jako dělník, uživatel apod. „Technickým strojem nejsme zotročeni, ale jsme mu podřízeni. S rozvojem technologií moderní stát nahradil strojové zotročení čím dál silnějším sociálním podřízením. Režim mzdového systému může tudíž dovést podřízení lidí až k neslýchanému bodu zvláštní krutosti… Moderní moc je neredukovatelná na klasickou alternativu „represe nebo ideologie“, ale zahrnuje procesy normalizace, modelování, informace, jazyka, vnímání, touhy, pohybu atd. Např. jsme podřízeni televizi tím, že ji užíváme a konzumujeme, ale televizí jsme zotročeni jako lidský stroj, pokud diváci jsou vnitřními komponentami, vstupy a výstupy, zpětnými vazbami, patřícími ke stroji3“ [1, str. 525]. Následně autoři uvažují o „hladkém“ prostoru, v němž se vyvíjel válečný stroj (zejména u kočovníků), a o „rýhovaném“ prostoru ustaveném státním aparátem. Ve fraktální geometrii má rýhovaný (metrický) prostor celočíselný počet dimenzí, hladký (nemetrický) prostor linie zlomkové dimenze větší než 1 a prostor povrchu zlomkové dimenze větší než 2. Autoři dospívají k závěru, že dnes hladký prostor světového kapitalismu vytvářejí zejména nadnárodní firmy (hladký kapitál „překračuje teritoria a státy, dokonce i různé typy států“ [1, str. 562]).
3
V posledních třiceti letech se na tři miliardy lidí připojily na internet, technologii historicky dosud nejvíce unifikující a kolonizující obyvatelstvo Země. Využité chytré stroje jsou po výtce asociální a individualistické. Nás si přizpůsobují, vnucují nám svoji mechaničnost a nedokonalost. Lidé bez internetu, dokonce už bez mobilu, se ze společnosti vylučují. Žáci, učitelé, obchodníci, lékaři i politici jsou státní správou nuceni se připojovat (např. datovými schránkami). Sociální sítě natrvalo připoutávají jednotlivce k lákavým nabídkám a stále méně připouštějí, aby šel osobní cestou. Pod systémovou kontrolou nezvládáme sami sebe, nemáme ani vlastní výběr.
Acta Informatica Pragensia
137
4 VÝSLEDKY A DISKUSE Není zde místo pro vyčerpávající přehled výsledků systémového inženýrství (SI), které se v Československu rozvíjelo od šedesátých let minulého století. První vědecká konference o systémovém inženýrství se konala v Mariánských Lázních v říjnu 1969, zatím poslední - již čtyřicátá čtvrtá - v Pardubicích v květnu 2013 [3]. Aplikace SI v územní správě jsme shrnuli v monografii [6] v kapitole 1 tu byl formulován synergetický model města a jeho okolí jako matematické východisko demokratické územní správy, aplikace v občanské výchově pro novou společnost jsou v monografii [7]. Za tři svíce pro budoucnost (jak říká též Václav Cílek) v našich pracích pokládáme filosofii, sociologii a praxi. Diskusi dosavadních výsledků teď spojíme s připomenutím sociologických autorů a knih, které nám byly praktickým vodítkem – dobrý přehled přinesl Danilo Martuccelli [4]. Diskuse se netýká jen vlastních výsledků, ale všímá si i toho, jak oponenti v nejširším smyslu uvažují. Filosofická metoda, kterou jsme popsali shora, je ze sociologického hlediska příkladem zvláštní formy racionalizace, která Západu umožňuje rozšiřující se ovládání světa. Z tohoto pohledu se život stává téměř výhradně předmětem intelektuální rozvahy. „Moderní svět je charakterizován expanzí racionality do všech sfér sociálního života. Výsledkem je vytvoření neustále vzájemně nezávislejších oblastí jednání, které jedince omezují. V tomto smyslu je racionalizace definována narůstáním role formální racionality, jednání zaměřených na přiměřenost prostředků a cílů, a oslabováním substantivní racionality, jednání řízených hodnotovými postuláty. Sekularizace obrazů světa vede zase ke ztrátě smyslu“ [4, str. 153]. Podrobněji se racionalizace zaměřuje na sociální vědy jako nástroj racionalizace, na ideál dokonale řízené společnosti, na expanzi humanitních věd (včetně psychologie) a na hledání nových cest racionality (např. komunikativní racionality podle Jürgena Habermase). Nejnověji si uvědomujeme závažnost dlouhodobého procesu odkouzlení, odcizení a subjektivizace a s tím rostoucí roli nepředvídatelnosti, neusměrnitelnosti a omylu. Ve weberovské tradici uvažoval mj. Michel Foucault (1926-1984), na jehož dílo jsme v našem systémovém inženýrství častěji odkazovali (např. Systémová bezpečnost, HK: Gaudeamus, 2008, str. 105 a násl.). Foucault přímo považuje Rozum za původce šíření budoucí dominance a studuje „základní vztah mezi humanitními vědami a praktikami vedoucími cestou dohledu k izolaci“ [4, str. 241). Pro Foucaulta je nejdůležitější sociální dohled, který nad subjektem vykonávají humanitní vědy. Jejich působení shrnuje dvojicí moc-vědění (pouvoir-savoir). Pravdu vykládá nejprve jako plod konvergence určitého vědění s jinými věděními (kniha Slova a věci, 1966, česky Brno: Computer Press, 2007). Přitom diskurz si podmaňuje nediskurzivní praktiky. Od sedmdesátých let se odklání od prvenství diskurzu ve prospěch praxe. Nejde už tolik o soubor formujících pravidel, ani o kolektivní významový horizont (épistemé), nýbrž o soubor organizovaných a strukturujících praktik v oblasti kontroly a normalizace, hlavně se jedná o soubory pravidel pro transformaci jednotlivých předmětů. Moc a dominance se podle něho uplatňují hlavně v institucionálních praktických strategiích. „Pod dohledem humanitních věd se subjekt stává sledovanou formou věcí v moci jazyka… zkrátka a dobře objektem. Výsledné propojení mezi typem nazírání, který vzešel z humanitních věd, a jeho institucionalizací v podobě útulků pro choromyslné, nemocnic, věznic, škol či továren“ [4, str. 244] ukazuje na souvislost mezi získáváním důvěrných informací a rostoucí mocí odborníků, kteří těchto informací využívají. I pravda je pak spjata s ustavičným dohledem a posuzováním, vědění obsahuje zárodky moci.
138
Vítek
K osvícenství patřil sen o pečlivě seřízeném a podřízeném soukolí, jemuž slouží ustavičné donucování, stále tvrdší výcvik a automatická poslušnost, také vojenský sen o normalizující společnosti. Z pohledu Foucaulta moderní dějiny jsou naplněním osvícenství, které tím, že objevilo svobodu, vynalezlo i disciplinu (kniha Dohlížet a trestat, 1975, česky Praha: Dauphin, 2000). S tím, jak roste role vědění v praxi sociální kontroly a normalizace jedince, je diskurz nahrazován mocí, založenou na představě uzavřených a sebevytvářejících se systémů. Moc přestává být vlastností, stává se pouhou strategií dominance. V Dějinách sexuality 1. Vůle k vědění, 1976, česky Praha: Herrmann a synové, 1999, soudí, že předním úkolem moci již není zabíjet, ale po všech stránkách angažovat život zbavený intimity. Ještě dále než moc však jde odpor proti ní a Foucault postuluje možnost emancipace jako útěku, snahy najít estetické bytí tam, kde se hroutí politický a mravní řád. Jestliže u myšlenkově blízkého Deleuze platily tři stupně „vědění, moc, já /soi/“, začíná teď platit „pravda, moc, etika“ (Dějiny sexuality 3. Péče o sebe, 1984, česky Praha: Herrmann a synové 2003). Podle obou autorů je působnost na sebe sebou samým pravou podstatou subjektivace (viz též Deleuze G. Foucault, Paříž: Minuit, 1986). Jedinou možností je pak „subjektivistický solipsismus (romantický, energetický či estetizující)“ [4, str. 264], obrácený k technikám péče o sebe. Poněkud jinak postupuje filosof a sociolog Jürgen Habermas (*1929), když rozlišil dvě koncepce racionalizace: systém a žitý svět (Theorie des kommunikativen Handelns, Frankfurt: Suhrkamp, 1981). Na jedné straně narůstají systémy sociální kontroly, na druhé straně postupuje diferenciace žitého světa (kultura, společnost, osobnost). Autor navrhuje kategorie komunikativního jednání, zakořeněné v žitém světě a zároveň vyslovené v systémové teorii. Přitom „žitý svět zůstává subsystémem, který určuje stav sociálního systému jako celku“ [4, str. 277]. Habermas upravuje původní Parsonsovy závěry o významu peněz a moci jako médií, a zdůrazňuje zobecněné formy komunikace jako jsou dobrá pověst, profesní význam či důvěra. K hlavním zdrojům nerovnováhy mezi teleologickou racionalitou a komunikativní racionalitou a odtud i ke zdrojům patologie modernity patří jednostranná snaha ve prospěch mechanismů systémové integrace. Hrozí pak krize čtyř typů: hospodářská, racionality, legitimity a motivace, které v souhrnu vedou k narůstající kontrole života jedinců. Již v Teorii komunikativního jednání ukázal, že „nové konflikty nevznikají z problémů přerozdělování, ale z otázek, které se týkají gramatiky životních vzorců“ [4, str. 283]. V knize Etika a diskuze (1991) navíc vyvozuje, že demokracii je možno založit na principu diskuze, propojeném s právním vzorcem. Habermasovy myšlenky jsme diskutovali mj. v kolektivní publikaci Systémová komunikace, HK: Gaudeamus, 2006. V předchozí monografii Systémy složité a zjednodušené, Vydavatelství Univerzity Pardubice, 2013, zápolíme s těmito habermasovskými názory: „Poznání musí v modernitě nejenom dostatečně vyplnit prostor vyprázdněný odchodem církve, ale ještě také normativně vytvořit principy, o které se demokratická společnost bude, nebo by se měla opírat. Sociální integrace prováděná na politické úrovni musí projít filtrem diskuze. Podstatou deliberativní politiky je v podstatě síť diskuzí a vyjednávání, jejichž cílem je přinést řešení pragmatických, morálních a etických otázek, či spíše problémů, které se nahromadily během funkcionální, morální či etické integrace. V postmetafyzickém kontextu je jediným zdrojem zákonnosti demokratický postup, kterým se projevuje právo. Svobodné uvedení témat a příspěvků, informací a zdůvodnění zaručuje tvorbě politické vůle její charakter diskuze. Právo je takto spojujícím článkem mezi systémem a žitým světem. Je jeho součástí jakožto legitimní řád, který se stal reflexívním řádem. Solidarita, skutečný zdroj sociální integrace, se může přijatelně rozvíjet díky otevřeným nezávislým veřejným prostorům a díky postupům,
Acta Informatica Pragensia
139
institucionalizovaným právním státem. V modernitě hraje zásadní roli demokracie jako konsenzus svobodné volby. V procedurálním konceptu demokracie myšlenka konsenzu nabývá formy právní společnosti, která se organizuje sama“ [4, str. 288-294]. Z diskusí k naší monografii pro ilustraci vybereme pracovní názor JUDr. Jana Pinze, PhD. z 8.10.2013: „V rámci násilné europeisace se objevil byrokratický fenomén pod názvem Rejstřík informací o výsledcích výzkumu a vývoje (RIV), který podle vzoru protektora z EU z byrokratického centra v Bruselu poslušně přijala Rada pro výzkum, vývoj a inovace při Úřadu vlády. Jde o neuvěřitelně nesmyslnou, těžkopádnou a zcela samoúčelnou soustavu hodnocení těchto činností, jak to také posuzují jednotlivé zbylé (ještě nezrušené) akademické ústavy. Podle této spirály „hodnocení“ se rozdělují zmíněné výsledky do řady kategorií s množstvím formálních požadavků na publikace, které dělí na čtyři druhy A, B, C, D … Přičemž podle této eurokonstrukce není odbornou knihou sborník z vědecké konference, protože ten obsahuje souhrn autorských děl, tedy děl samostatně myslících osobností neodpovídajících diktátu názorového die Gleichschaltung … Nejslušnějším řešením zůstává akademickým věkem prověřená varianta vědeckého sborníku.“ Srovnej též Polemiky a spory v právní vědě, Bubelová K., Frýdek M. (eds.), Sborník příspěvků z jednání sekce teorie práva a právních dějin v rámci konference Olomoucké právnické dny 2010, 27.-28.5.2010, vydala Univerzita Palackého v Olomouci, Právnická fakulta, 2010, ISBN 979-80-244-2665-5.
5 ZÁVĚR Metoda systémového inženýrství uplatňuje nesmírnou sílu holistického myšlení, které zesiluje jeho odolnost (angl. robustness = tělesná či mentální síla a pevnost, u výpočtu nezávislost výsledku na určitých aspektech vstupů) vůči tlakům, nedokonalostem a deformacím, zejména mocenským. Celostný přístup je zároveň uměním jak zjednodušit složitost. Dovoluje vidět řád skrze chaos, užívat vzájemnou závislost a zvládat výběr. Pokud svému světu lépe porozumíme, nebude nám připadat tak složitý a chaotický. Systémová metodologie může být aplikována např. na architekturu systémů v průmyslu, zdravotnictví, školství, státní správě aj. Zpravidla se doporučuje modulární struktura, pro niž nejprve navrhujeme systém jako celek v jeho vitálních funkcích, hlavních prvcích a kritických procesech. Potom stanovíme specializované moduly, kterým umožníme jednat jako samostatné systémy s odpovědností, sebekontrolou a schopností vyhovět požadavkům celku. Modulární projektování a programování také usnadní budoucí změny [3, str. 88]. V naznačeném smyslu je padesátiletá historie českého systémového inženýrství složitě prostoupena jako rhizom - stonky filosofie, sociologie a praxe v širokém smyslu. „Lidé si myslí, že matematika je složitá, ale to nesedí. Matematika spočívá na logice, což pro skutečný život neplatí. Ten je složitější než matematika“ (Cédric Villani, LN 5.10.2013, str. 23). Podobně jako známý francouzský matematik se vyjádřil velký sociolog Norbert Elias (Vratislav 1897-1990): „Současnou situaci lidských společností charakterizuje skutečnost, že způsobilost ovládat komplexy mimohumánních jevů roste rychleji než schopnost zvládat sociální vztahy“ [4, str. 210]; též: Vítek M. Systémové myšlení. HK: Gaudeamus, 2000. V příspěvku se podrobněji nezabývám systémy asociálními, resp. antisociálními, tedy protispolečenskými, o nichž přibývá informací též v denním tisku. Třeba o tom, že praní špinavých peněz doma i v zahraničí bylo hlavní profesí trestně stíhaných manažerů v kauze Mostecké uhelné
140
Vítek
(Neue Zürcher Zeitung), stejnou metodou se však v 90. letech systematicky privatizovaly desítky socialistických podniků. „Ano, bylo jich víc, ale ne z doby, kdy jsem byl ministrem“, přiznává Tomáš Ježek. „Komunistický ředitel předložil privatizační projekt, úvěr získal od spřáteleného komunistického šéfa místní banky a splácel jej ze zisku podniku… Ve většině případů se privatizace minula účinkem. Skončila Poldina huť, automobilka LIAZ, řada skláren“ (LN, 11.10.2013, str. 14). Systémový přístup k těmto a dalším negativním jevům se musí zaměřit na: dravé proudy současného úpadku všeobecné kulturnosti (zejména na módu amerikanismu), odmítnutí nadvlády negramotů v českém i evropském měřítku (euroidiotismu jako posluhování byrokratickému monstru EU), obranu práv svobodné lidské bytosti (včetně práva na svobodný tvůrčí projev), nesoulad legálního řádu se řádem legitimním (občanským reflexívním řádem) a prosazení nezfalšovatelné demokracie (tou bývala volba losem). Srovnej Systémové konflikty, Vydavatelství Univerzity Pardubice, 2011: „Volit menší zlo je také zlo.“ Nedostižným vzorem uceleného kritického přístupu se nám stali TGM [7], František Xaver Šalda (Liberec 1867-1937)4 a Václav Černý (Česká Čermná u Náchoda 1905-1987), pro kterého český národ zůstává „jednou z nejvýraznějších, nejčestnějších a eticky nejsilnějších forem lidskosti“ a své svobody dosáhne cestou kultury a vzdělanosti. Přitom ve třetím díle Pamětí 1945-1972 přesně definoval a zvěčnil komunismus (stejně i fašismus!) jako zvrhlý5 systém, nápravu jsme po roce 1989 nezvládli a uspokojujeme se zahálčivým a levným konzumem. „Však také tzv. krize inteligence v současné době neleží podle Šaldy v ničem jiném než v ztrátě víry v Ducha tvořivého, v jeho sílu světové dění společenské řídit: věří se „v odvozené činitele mechanické a materiálové“, v literu, cifru, statistiku, co lze ohmatat a spočítat. Profesor již není confessor, tj. vyznavač: je malověrný, bázlivý, služebný kastrát. Osobnost podle Šaldy musí být nad stranná; tj. musí proti stranickosti účinně bojovat, nikoliv jí mlčky nedbat. Osobnost jest povýtce schopností boje, nepřetržité adaptace k změněným podmínkám života osobního i kolektivního. Je vždy schopna obohacení, je vždy rozšiřitelna, je realitou otevřenou. Což znamená, že osobnost tíhne přirozeně k univerzalitě, je myslitelna jen humanitně a humanisticky. Evropanství je ve skutečnosti program nabídnutý lidstvu vůbec… Co pokládám za nejkrásnější na Šaldově evropanství, jeho otevřenost do hodnot vyšších a zvláště do budoucna, jeho slibuplnost, 4
Šalda „dává pozůstávat evropské podstatě z šesti členitých a bohatých duchovních komplexů, proudů, a sil, které se v průběhu více než dvoutisíciletém navzájem posilují, rozšiřují, podchycují, v každém dalším stadiu metaformozně navždy trvají, až – vtěleny v dnešního Evropana – prožívají v něm v tomto dvacátém století svou, tj. naši současnou krizi: jsou to antická kultura helénská; římsko-latinská civitas, pojem práv „civis Romani“; k nim Šalda, a tu je velmi svůj, připojuje obrodné působení génia židovského; je to, za čtvrté, křesťanská caritas, poselství lásky k bližnímu, k božímu synu mně rovnému a jejž tedy pro Boha a v Bohu miluji jako sebe samého; je to, renesancí počínajíc, moderní věda racionální a konečně mocné hnutí duchovní a mravní sebeanalýzy člověka v novém subjektivismu. Sklad a řád těchto šesti sil a vznětů, případně i jejich potýkání a boj, to je duše Evropy“ (Václav Černý. Tvorba a osobnost I. Praha: Odeon, 1992, str. 169). 5 „Zásadně vzato, nečistý mezi čistými vůbec nemá právo na život … zlaté doly na Kolymě, Gulag, Jáchymov, Příbram. Nestačí protivníka potlačit, jeho odporu musíš i využít a zneužít, přinutit ho, aby pracoval pro tebe, proti sobě a své naději; musíš ho uzoufat … zničit a s ním zahladit i jeho rod, proměnit ženu i děti v otroky. A všechno ostatní – právo na lest vůči protivníkovi, na lež a podvod, na spílání a pomluvu, na vyzvídání a špinavost, na udavačství a nasazovaní špiclů, na vynucování přiznání mučením – to už je pak jen důsledek rozdělování lidí na čisté a nečisté, neboť vůči nečistým účel světí prostředky … člověk se zde prostě vysmívá vlastní lidskosti“ (Černý V. Paměti 1945-1972. Poprvé Toronto: Sixty-Eight Publishers, 1983; Brno: Atlantis, 2. vydání 1992, str. 567). Heslo „nepatříš k nám čistým“ přežívá dodnes ve stranictví, sektářství a rasismu.
Acta Informatica Pragensia
141
futurálnost. Že nám činí z Evropy skutečnost stále příští, tedy i stále ohroženou, ale zároveň i velikou naději“ (Černý V. Šaldovo evropanství (1947), in: Václav Černý. Tvorba a osobnost I, Praha: Odeon, 1992, str. 173-176). Krizi sociálních systémů tedy dlužno nahlížet v první řadě jako krizi moderní osobnosti, jak ji přinesly za nezměrných útrap první a druhá světová válka, dále pak jako krizi národa a odtud krizi evropskou, v jejímž středu se viditelně dnes nacházíme, nakonec jako krizi lidstva, k níž spějeme, když nám hrozí ztráta absolutních a v plném smyslu božských hodnot. S tím souvisí i tzv. „zrada intelektuálů“, o níž zásadně pojednal ve dvacátých letech Julien Benda a která se v současnosti naplňuje: odklonem od praktických, naléhavých a nutně lokálních úkolů („think globally, act locally“), samoúčelným a sobeckým elitářstvím („web of science“) a zotročující globalizací („go west if you gonna be the best“). Jednou z aktuálních výzev k obrodě osobností na úkor ideologie liberální demokracie, podle níž je každému vše – také zvrhlost („degeneration“) a zničení („annihilation“) – dovoleno („anything goes“), byly sněmovní volby 20136. Z množiny výroků kolem voleb ocitujme kritické srovnání ekonoma a politologa Petra Robejška: „Německo ke svému fungování vlastně politické strany nepotřebuje. Je svou povahou stabilní. A k tomu ještě přibudou i zakořeněné charakteristiky, jako je chování zaměřené na konsenzus. A pak – i těm nejchudším se vede pořád velice slušně… My naši politiku nezlepšíme tím, že budeme spotřebovávat stále nové strany. Zlepšíme ji jedině tím, když se občané budou opravdu aktivně angažovat. Lidé musí přestat čekat na Ježíška“ (LN, 26.10. 2013, str. 11).
6 SEZNAM POUŽITÝCH ZDROJŮ [1]
DELEUZE G., GUATTARI F. Tisíc plošin. Praha: Herrmann a synové, 2010, ISBN 978-8087054-25-3, orig. Paris: Minuit, 1980.
[2]
JUVIN H., LIPOVETSKY G. Globalizovaný Západ. Polemika o planetární kultuře. Praha: Prostor, 2012, ISBN 978-80-7260-265-0, orig. Paris: Grasset, 2010.
[3]
KŘUPKA J., VÍTEK M. et al. Systémové inženýrství a informatika. Vydavatelství Univerzity Pardubice, 2013, ISBN 978-80-7395-572-4.
6
Jinou výzvou k obrodě osobnosti je varování před hybristickým syndromem (viz Britské listy, 27.9.2013). Již staří Řekové znali hybris jako přehnanou sebedůvěru, pýchu mocných a némesis jako tvrdou odplatu osudu. Po roce 2009 psychiatr a politik David Owen i další upozornili, že každý držitel moci - v jakékoliv společenské sféře! - je ohrožen přílišnou sebedůvěrou, bezohledností a opovrhováním druhými, což může postupně přerůstat až do psychopatologické podoby (navíc při nadužívání antidepresiv). Vychýlení se tedy netýkalo jen M. Thatcherové, T. Blaira či G.W. Bushe, rovněž obklopených zdmi, zrcadly a lháři. Na ochranu se radí: nemyslete si, že máte vždy pravdu; zapojte širší výbor; vstupte do kontaktu s odpůrci; snažte se artikulovat svou morálku. Zásadnější řešení nabízejí koncepce odzápadnění /dewesternization/, které prezentuje mj. singapurský profesor Kišór Mahbúbání (*1948). Přirovnává západní lidskoprávní aktivisty ke středověkým křížákům a doporučuje pragmatický postup, přijatý také čínským vůdcem Teng Siao-pchingem. Ten nedopustil rozpad státních institucí, kolaps hospodářství a zhoršení životní úrovně, k čemuž dochází při pokusech o reformu politického systému. Mezi Tengovy zásady patří: střízlivě pozoruj; drž své pozice; skrývej své přednosti; chovej se nenápadně; nestav se do čela; jednej v jistých mezích. Čína a Indie se stávají otevřenějšími a úspěšnějšími než USA či EU: USA opustily původní pragmatismus a převzaly šíření absolutní pravdy po celém světě od německých filosofů.
142
Vítek
[4]
MARTUCCELLI, D. Sociologie modernity. Itinerář 20. století. Brno: CDK, 2008, ISBN 97880-735-145-1, orig. Paris: Gallimard, 1999.
[5]
VÍTEK M. et al. Systémové inženýrství. Pardubice: VŠCHT, 1990, ISBN 80-85113-18-X.
[6]
VÍTEK M. et al. Základy územní správy. Pardubice:VŠCHT, 1991, ISBN 80-85113-33-3.
[7]
VÍTEK M. (ed.) Studijní texty k sociální filosofii. Ústav filosofie a společenských věd UHK, Hradec Králové: Gaudeamus, 2005, ISBN 80-7041-655-6.
Poznámka autora: Jde o velmi komplikovaný text, kde bylo nutné pročíst množství zdrojů – v seznamu literatury jsou jenom díla, ze kterých text opravdu vychází a nikoli sousedící myšlenkové prostředí. Jedná se o teze k 45. ročníku konference Systémové inženýrství (SYSIN 2014) – Předpoklady informačních systémů.
Acta Informatica Pragensia Recenzovaný vědecký časopis / Peer-reviewed scientific journal ISSN: 1805-4951 Články v časopise podléhají licenci Creative Commons Uveďte autora 3.0 This work is licensed under a Creative Commons Attribution 3.0 License