| دسته بندی | حقوق |
| بازدید ها | 22 |
| فرمت فایل | docx |
| حجم فایل | 48 کیلو بایت |
| تعداد صفحات فایل | 22 |
دانلود تحقیق با موضوع تعلیق مجازات در حقوق جزای اسلامی
فهرست تحقیق
چکیده
مقدمه
بخش اول-آشنایی با مفهوم حقوقی تعلیق مجازات
مبحث اول-فلسفه تعلیق مجازات
مبحث دوم-تاریخچه تعلیق مجازات در حقوق ایران
مبحث سوم-انواع تعلیق مجازات
مبحث چهارم-شرایط تعلیق مجازات در حقوق جزای معاصر ایران
شروط راجع به طبیعت مجازات
شروط راجع به گذشته شخص محکوم
شروط راجع به آینده محکوم علیه
شروط راجع به جرایم ارتکابی
مبحث پنجم-تعهدات محکوم علیه در تعلیق مراقبتی
مبحث ششم-وظایف دادگاه تعلیق کننده مجازات
بخش دوم-رویه قضایی ایران و تعلیق مجازات
مبحث اول-ارزیابی رویه قضایی در خصوص تصریح علل و موجبات تعلیق در دادنامه
مبحث دوم-ارزیابی رویه قضایی از حیث نوع تعلیق تعیین شده
مبحث سوم-ارزیابی رویه قضایی از حیث آثار تخطی متهم از شرایط تعلیق
مبحث چهارم-ارزیابی عملکرد رویه قضایی از حیث مدت تعلیق
نتیجهگیری و پیشنهاد
منابع
| دسته بندی | حقوق |
| بازدید ها | 18 |
| فرمت فایل | docx |
| حجم فایل | 45 کیلو بایت |
| تعداد صفحات فایل | 15 |
تحقیق با موضوع سن مسؤولیت کیفری در حقوق اسلام
فهرست تحقیق
مقدمه
سن مسؤولیت کیفری در قرآن
سن مسؤولیت کیفری در سُنّت
سن مسؤولیت کیفری در احادیث امامان معصوم علیهمالسلام
تعدادی از روایات دسته سوم، به قرار زیر است:.
سن مسؤولیت کیفری از نظر فقها
نتیجه گیری
منابع
| دسته بندی | پزشکی |
| بازدید ها | 12 |
| فرمت فایل | rar |
| حجم فایل | 23711 کیلو بایت |
| تعداد صفحات فایل | 1 |
زیباترین لوح تقدیر بمناسبت روز پزشک
بصورت کاملا لایه باز و قابل تغییر
کیفیت بالا
ابعاد 30*20
آماده برای چاپ
| دسته بندی | علوم پزشکی |
| بازدید ها | 11 |
| فرمت فایل | |
| حجم فایل | 655 کیلو بایت |
| تعداد صفحات فایل | 15 |
فهرست مقاله:
چکیده
روش های تحقیق
جامعه آماری و نمونه
مقیاس ها و تحلیل
نتایج
توصیف آماری
بررسی نتایج رگرسیون چند متغیره استدلالی:
طرح بحث
|
بخشی از ترجمه فارسی مقاله: تقریبا 10.2 میلیون کودک در سنین 0 تا 17 ساله در ایالات متحده (14%) نیازهای بهداشت و درمان خاص دارند. کودکانِ با نیازهای بهداشت و درمان خاص (CSHCN) یک گروه متنوع با شرایط سلامتی گوناگون فیزیکی، روانی و رفتاری مشخص شده اند (Strickland et al., 2011)، و معمولا آنها نسبت به کودکان در سنین مشابه، به خدمات بهداشتی بیشتری نیاز دارند (Blumberg et al., 2007;Newacheck, 2007; U.S. Department of Health andHuman Services, 2007). بطور کلی، کودکانِ با نیازهای بهداشت و درمان خاص (CSHCN) بیش از 42% هزینه های پزشکی برای کودکان را به خود اختصاص می دهند (Newacheck & Kim, 2005). اخیرا بوسیله یک تحقیق برآورد شده است که هزینه های بالای مراقبت شاملِ هزینه های بهداشتی کودکانِ با نیازهای بهداشت و درمان خاص (CSHCN) به طور متوسط 3 برابر بیشتر و هزینه های بیمارستانی 4 برابر بیشتر از کودکان سالم است (Cohen et al., 2010). |
|
بخشی از مقاله انگلیسی: Approximately 10.2 million children ages 0 to 17 years in the United States (14%) have special health care needs. Children with special health care needs (CSHCN) are a diverse group characterized by a variety of physical, mental, and behavioral health conditions (Strickland et al., 2011), and they usually require more health-related services than generally are needed by children of similar ages (Blumberg et al., 2007; Newacheck, 2007; U.S. Department of Health and Human Services, 2007). Overall, CSHCN account for more than 42% of all medical expenditures for children (Newacheck & Kim, 2005). This high cost of care was recently supplemented by a finding that CSHCN health expenditures were on average three times higher and hospital expenses were four times higher than those of healthier children (Cohen et al., 2010). Some studies found that CSHCN made a significantly higher number of physician office visits than did children without special health care needs (Houtrow, Kim, Chen, & Newacheck, 2007; Martin, Crawford, & Probst, 2007). Weller, Minkovitz, and Anderson (2003) noted higher rates of hospitalizations and emergency department (ED) visits among CSHCN with severe functional limitations but found no differences in the number of pediatric primary care (PPC) office visits. According to the 2008 National Survey of Childrens Health, children with special needs had more wellchild visits than did other children (Cooley, McAllister, Sherrieb, & Kuhlthau, 2009). Nageswaran, Roth, Kluttz-Hile, & Farel (2007) reported higher rates of health care needs among CSHCN with greater functional limitations but found no increase in preventive or health assessment office visits. Similarly, a 2004 study found no difference between children with and without special health care needs in terms of preventive care (Bethell, Read, & Brockwood, 2004). Some evidence indicates that CSHCN receive less preventive and wellchild care than their healthy peers because their health care needs may dominate the time and conversation during PPC office visits (Ayyangar, 2002). In recent years, an increasing emphasis has been placed on improving health care delivery for CSHCN in the context of the family and community (American Academy of Pediatrics, 2009; Coker, Rodrigues, & Flores, 2010; National Association of Pediatric Nurse Practitioners, 2009). The American Academy of Pediatrics defined medical home not only as the central location for receiving medical services but also a source of preventive care and a resource for community information and support (American Academy of Pediatrics, 2002). The National Association of Pediatric Nurse Practitioners (2009) supported the approach and proposed to expand the medical home concept to all children and their families in the United States. The Patient Protection and Affordable Care Act (2010) emphasized the need for strong primary care based on the medical home model. The Law also stipulates medical home provisions for persons with chronic medical conditions (Sec. 2703). The presence of a medical home is associated with a number of positive patient outcomes. Research indicates that availability of the medical home has a considerable potential to reduce emergency and urgent care use for all children (American Academy of Pediatrics, 2002; Antonelli, Stille & Antonelli, 2008; Cooley et al., 2009). In fact, a 2008 study found that having at least the recommended number of early periodic screening, diagnostic, and treatment visits might shift some health provision from the ED to the PPC office (Rosenbaum, Wilensky, & Allen, 2008). Strickland, McPherson, and Weissman (2004) found that children without a medical home were more than twice as likely to have unmet health care needs than were those with a medical home. Unmet child health care needs have been linked to a number of socioeconomic factors such as poverty, minority status, lack of health insurance, and lower parental education (Inkelas, Raghavan, Larson, Kuo, & Ortega, 2007; Mayer, Skinner, & Slifkin, 2004; Singh, Strickland, Ghandour, & van Dyck, 2009). The purpose of this study was to examine PPC utilization for CSHCN with a medical home and CSHCN without a medical home. When medical homes provide comprehensive health care services and community information to CSHCN and their families, it is reasonable to assume that more visits to the PPC provider would be needed to address CSHCN acute and chronic conditions in addition to well-child examinations. Thus we hypothesized that having a medical home would be associated with a higher number of PPC office visits. We also posited that some CSHCN sociodemographic characteristics would be associated with a higher number of PPC office visits. |
| دسته بندی | پزشکی |
| بازدید ها | 18 |
| فرمت فایل | |
| حجم فایل | 716 کیلو بایت |
| تعداد صفحات فایل | 15 |
فهرست مقاله:
روش
شرکت کنندگان
ارزیابی ها
کار پیگیری چشم
نظام پیگیری چشم
رویه
نتایج
ویژگی های شرکت کننده
تأثیرات جایگاه دارو در نمایه های پیگیری چشم
تعداد میانگین خیره شدگی ها
بحث
|
بخشی از ترجمه فارسی مقاله: اکنون پشتیبانی های عظیم نظری و تجربی برای اهمیت پردازش اطلاعات در نگه داری و شاید سبب شناسی افسردگی عمده (1-3) وجود دارد. به خصوص، در مورد توجه سودار به مطالب مرتبط با افسردگی و خودداری از اطلاعات مثبت فرضیه سازی شد است تا از این اختلال حمایت شود. تحقیقات قبلی نیز نشان داده است اصلاح این تعصبات از نشانه های افسردگی کم می کند (4-6). |
|
بخشی از مقاله انگلیسی: There is now substantial theoretical and empirical support for the importance of information processing biases in the maintenance, and perhaps the etiology, of major depression (1–3). Specifically, biased attention to depression-relevant material and avoidance of positive information are hypothesized to maintain the disorder. Recent research has also demonstrated that modifying these biases reduces symptoms of depression (4–6). According to a recent cognitive neuropsychological model of depression (7), antidepressant medications—particularly those that target serotonin and norepinephrine—may act by modifying emotional information processing. Modified emotional information processing, in turn, is thought to lead to downstream antidepressant effects. This model helps explain why antidepressant medication use is not immediately associated with amelioration of depressed mood. As Harmer and colleagues note (7), “Rather than acting as direct ‘mood enhancers,’ antidepressants may re-tune how we process personal and socially relevant affective information” (p. 107). This model follows from a series of studies suggesting that 1) antidepressants influence emotional information processing early in treatment; 2) changes in emotional information processing occur earlier than and in the absence of changes in subjective mood; and 3) early changes in information processing are associated with eventual therapeutic improvement (see the review by Harmer et al. [7]). Thus far, much of this research has been conducted with healthy subjects. For example, Browning et al. (8) randomly assigned 32 healthy volunteers to receive either one dose of citalopram or a placebo pill. Consistent with the cognitive neuropsychological hypothesis, individuals who received the antidepressant demonstrated greater attention to positive stimuli, as assessed with a visual probe task. More recently, researchers have begun to evaluate this phenomenon in individuals with depression. For instance, Harmer et al. (9) conducted a double-blind placebocontrolled study evaluating patients with depression and healthy subjects. In line with the cognitive neuropsychological model, depressed patients who received placebo exhibited lower recognition of positive facial expressions and lower memory for positive information, as well as slower speed to respond to positive personality adjectives, compared with healthy subjects. Notably, these information processing effects in the depressed patients were reversed with the administration of just a single dose of an antidepressant (reboxetine). However, there were not corresponding reductions in subjective ratings of mood or anxiety after this initial administration. In this study, we built on previous research to focus specifically on the relationship between antidepressant medication use and selective attention to emotional visual stimuli, using eye-tracking technology, in a sample of participants with major depressive disorder as well as a nondepressed comparison group. This research adds to the small number of studies that have empirically examined the cognitive neuropsychological model of depression in a clinical sample. The inclusion of a nondepressed comparison group is also valuable for comparative purposes insofar as it allows us to more clearly delineate “normal” attention for emotional information. Our use of an eye-tracking paradigm is particularly valuable because it allows for multiple dynamic measures of selective attention (10). This is critical because it enables us to capture the more elaborative stages of attention that are particularly relevant for patients with major depression (11). Eye tracking also specifically provides an assessment of overt attention, since eye movements are necessarily associated with shifts in attention, whereas the dot-probe task used in previous studies does not always elicit eye movements and may measure both overt and covert shifts in attention (12, 13). Ours is also the first study to examine the effects of antidepressant medication, as prescribed in the community, on emotional information processing. We used eye tracking to measure selective attention (total gaze duration, mean number of fixations, mean fixation duration) for dysphoric, threatening, positive, and neutral emotional scenes in a sample of community participants with major depression (both medicated and unmedicated) and a never-depressed comparison group. Consistent with previous work (8, 9), we hypothesized that antidepressant medication use, compared with nonuse, would be associated with greater selective attention for positive stimuli. We further predicted that there would not be significant group differences between the medicated major depression group and the nondepressed comparison group on selective attention for positive information, consistent with the idea that antidepressant medication use normalizes emotional information processing. |
| دسته بندی | پزشکی |
| بازدید ها | 10 |
| فرمت فایل | |
| حجم فایل | 722 کیلو بایت |
| تعداد صفحات فایل | 15 |
بخشی از ترجمه فارسی مقاله:
مقدمه
حاملگی خارج رحمی علت اصلی مرگومیر ناشی از بارداری در سه ماههی اول است. تشخیص زودهنگام به همراه گزینههای درمانی متعدد موجب کاهش این نوع مرگومیر شده است.
در چهار دههی گذشته به دلیل افزایش میزان عفونتهای لگنی ، استعمال دخانیات، ناباروری و روشهای آزمایشگاهی و تکنیکهای تصویربرداری حساستر که امکان تشخیص زودهنگام را فراهم میکنند؛ شیوع حامگی خارج رحمی افزایش یافته است.
تعداد موارد نامعلوم با تشخیص قطعی دیرتر با استفاده از روشهای تشخیصی حساستر افزایش یافته است. ارزیابی کلاسیک موفقیت درمان که توسط Stovall و همکارانش تعیین شد و توسط Kirk و همکارانش مجددا تایید شده است؛ حساسیت 93-88 درصدی دارد اما تعداد زیادی از بیماران به دلیل نتایج منفی کاذب از مطالعه حذف شدند؛ در غیر این صورت تعداد زیادی از افراد در یک جمعیت با نرخ بالای بارداری حضور داشتند.
هدف ما تجزیه و تحلیل نشانگرهای مستقل شکست درمان به منظور تشخیص بیمارانی بود که از اقدامات درمانی زودهنگام و یا نظارت مداوم سود میبردند؛ حتی اگر پارامترهای مرسوم نشاندهندهی درمان پزشکی کافی باشند.
مواد و روشها
این یک بررسی گذشتهنگر بر روی بیمارانی بود که حاملگی خارج رحمی در آنها تشخیص داده شده بود و از سپتامبر 2012 تا مارس 2016 به متخصص زنان و زایمان بخش اورژانس یا کلینیک سرپائی بیمارستان تحقیقاتی و آموزشی Bagcilar مراجعه کرده و با پروتکل تک دوز متوتروکسات (Mtx) که توسط Stovallو همکارانش (4) تعریف شده بود؛ درمان شده بودند. این مطالعه توسط کمیتهی اخلاق پزشکی (شمارهی پروژه: 406/2015) تایید شد. اطلاعات بیماران از پایگاه دادهی بیماران (MEDIN 2.0.0) با استفاده از پرسشهای زیر بدست آمد: “حاملگی خارج رحمی” در هنگام تشخیص. سوابق جراحی برای تشخیص “حاملگی خارج رحمی” مورد بررسی قرار گرفت.
زمانی که سطوح بتا گنادوتروپین جفتی انسان (hCG) بالاتر از 1500 میلییونیت/ میلیلیتر بود و هیچ ساک حاملگی داخل رحمی شناسایی نشد (با سونوگرافی ترانس واژینال 5 تا 8 مگاهرتزی آزمایش شد) یا زمانی که سطح β-hCG کمتر از 1500 میلییونیت/ میلیلیتر بود اما این سطح افزایش یافته بود و در 48 ساعت قبلی کمتر از 50 درصد بود و سطح β-hCG با وجود تخلیهی رحم کاهش نیافته بود؛ حاملگی خارجرحمی تشخیص اولیه بود. بعد از تشخیص اولیهی حاملگی خارج رحمی، یک دورهی معاینهی 1-8 روزه قبل از اولین دوز متوتروکسات انجام شد. در طی دورهی درمان، هر روز با استفاده از اندازهگیری سطوح β-hCG خون، اختلالات موجود در همودینامیک بیمار بررسی شد. چنانچه سطح β-hCG خون به خودی خود کاهش نیافته بود (بیش از 15%/ 24 ساعت کاهش در طول اندازهگیری متناوب β-hCG با یا بدون تخلیهی رحم که با توجه به ضخامت بیش از 10 میلیمتر اندومتر، مشاهدهی حاملگی داخل رحمی توسط سونوگرافی یا عبور بافتها همراه با خونریزی رحم)؛ درمان پزشکی آغاز شد.
از پروتکل تک دوز متوتروکسات برای بیمارانی با حاملگی خارج رحمی که سطح β-hCG در آنها کمتر از 10000 میلی یونیت/ میلیلیتر بود؛ بیمارانی با تودههای آدنکسال غیرهمولوگ با اندازهی کمتر از 5 سانتیمتر؛ عدم فعالیت قلبی جنین، فقدان علائم همو پریتونئوم (وجود خون در حفرهی صفاقی) یا کاهش غیرطبیعی حجم خون و تعداد طبیعی سلولهای خونی و عملکرد طبیعی کلیه/ کبد استفاده شد. در صورتی که منع مصرف دارو وجود نداشت؛ متوتروکسات در تک دوز داخل عضلانی (IM) 50 mg/m2 در روز صفر تزریق شد. بیماران در بیمارستان بستری شدند و انتظار میرفت که بعد از تزریق دارو در حالی که علائم شکمی حاد بررسی میشد؛ خونریزی شدید داخلشکمی تا زمان عمل جراحی یا به مدت 7 روز دیده شود. آزمایشهای خون (بیوشیمیایی، پارامترهای خون و β-hCG) در روز چهارم انجام شدند. چنانچه کاهش بیش از 15 درصد در سطح β-hCG خون از روز 4-7 مشاهده نشد و اگر اشباع یا افزایش سطح β-hCG در طول دورهی پیگیری دیده شد؛ دوز ثانویه 50 mg/m2 متوتروکسات به صورت داخل عضلانی تزریق شد و سپس همان چرخهی پیگیری به صورت اولین دوز متوتروکسات دنبال شد. اگر کاهش بیش از 15 درصد مشاهده میشد؛ بیماران به صورت هفتگی معاینه میشدند.
در صورتی که دوزهای بالاتر متوتروکسات مورد نیاز بود یا اگر عمل جراحی بر اساس یک تصویر بالینی از پارگی لولهی رحمی انجام شده بود؛ شکست در درمان توسط تک دوز متوتروکسات در نظر گرفته شد.
معیارهای خروج از آنالیز عبارتند از: کاهش خود به خودی سطح بتا گنادوتروپین جفتی انسان در طول معاینه بوسیلهی تخلیهی رحم یا بدون تخلیهی رحم؛ از دست رفتن اطلاعات بیماران در طول دورهی پیگیری، حاملگی خارج رحمی غیرلولهای و انجام عمل جراحی قبل از درمان پزشکی.
دادههای استخراجشده از پایگاه دادهها عبارتند از: اطلاعات جمعیتشناسی و بالینی بیماران؛ یافتههای سونوگرافی، طول دورهی معاینه قبل از درمان و سطح بتا گنادوتروپین جفتی انسان که در روز 0، 4 و 7 روز بعد از تزریق متوتروکسات اندازهگیری شد. عملهای جراحی و نتایج بالینی در جدول 1 و شکل 1 خلاصه شده است. اطلاعات حاصل برای آنالیز، درصد تغییرات سطح بتا گنادوتروپین جفتی انسان در خون بود: به ترتیب (β-hCG) (روز 0- روز 4) و (β-hCG) (روز 4/ روز 0) و (β-hCG) (روز 7/ روز 4)؛ همچنین این تغییرات به ترتیب توسط (β-hCG) (روز 4/ روز 0) و (β-hCG) (روز 7/ روز 4) بیان شدند و تغییرات روزانه در طول دورهی معاینه از طریق تبدیل لگاریتمی مشخص شد. در این مطالعه، ما به تغییرات میزان بتا گنادوتروپین جفتی انسان به عنوان مقادیر اندازهگیری شده در روزهای تفسیر نتایج اشاره میکنیم (به عنوان مثال، تغییر 15 درصدی در روز 4 تا 7 (سطح β-hCG در روز 7/ سطح β-hCG در روز 4) به صورت تغییر 0.85 روز 4/7 بیان میشود و غیره).
از آزمونهای تک متغیره برای تعیین متغیرهای معنادار در میان گروههایی که به طور موفق با تک دوز متوتروکسات (گروه 1) درمان شده بودند و بیمارانی که پروتکل تک دوز متوتروکسات در درمان آنها ناموفق بود (گروه 2) و به بیش از یک دوز از متوتروکسات یا جراحی بعد از دوز اولیه نیاز داشتند؛ استفاده شد. تجزیهوتحلیل منحنی مشخصه عملیاتی گیرنده (ROC) این متغیرها، مقادیر آستانه را که برای بدست آوردن متغیرهای جدید به منظور آنالیز رگرسیون لجستیک چند متغیره مورد استفاده قرار میگرفتند را تعیین کرد. مقادیر p<0.05 معنادار در نظر گرفته شد. برای آنالیز دادهها، از نرمافزار اکسل (شرکت مایکروسافت، شهر ردموند، واشینگتن، ایالات متحده آمریکا) و SPSS ورژن 20 (شرکت SPSS، شیکاگو، IL، ایالات متحده آمریکا) استفاده شد.
بخشی از مقاله انگلیسی:
Introduction
Ectopic pregnancy is the leading cause of pregnancy-related mortality in the first trimester. An earlier diagnosis combined with numerous treatment options has decreased related mortality [1]. The prevalence of ectopic pregnancy has been increasing in the last four decades due to increasing rates of pelvic infections, smoking, infertility, and more sensitive laboratory methods and imaging technologies providing an earlier diagnosis [2]. The proportion of indeterminate cases with a later definite diagnosis has increased with more sensitive diagnostic methods [3]. The classic assessment of treatment success defined by Stovall et al. and revalidated by Kirk et al. has 88e93% sensitivity but eliminates a large number of patients as false negatives, if not a large proportion in a population with high pregnancy rates [4,5]. Our aim was to analyze independent markers of treatment failure to identify patients who would benefit from an earlier additional medical intervention and/or continuing close surveillance even if conventional parameters indicated sufficient medical treatment.
Materials and methods
This was a retrospective analysis of patients with a preliminary diagnosis of ectopic pregnancy, who applied to the Bagcilar Research and Training Hospital Obgyn Department emergency section or ambulatory clinic from September 2012 to March 2016 and who were treated with the methotrexate (Mtx) single-dose protocol defined by Stovall et al. [4]. This study was approved by the Medical Ethics Committee (Project number: 406/2015). The patients’ data were obtained from the patients’ database (MEDIN 2.0.0) using the following queries: “ectopic pregnancy” as the diagnostic input. The surgical records were revised for the diagnosis of “ectopic pregnancy”. Ectopic pregnancy was a preliminary diagnosis when blood bhuman chorionic gonadotropin (hCG) levels were >1500 mIU/ml and no intrauterine gestational sac was detected (examined with 5e8 MHZ transvaginal sonography) or when blood b-hCG levels were <1500 mIU/ml but the level was increasing and was <50% during the previous 48 h and blood b-hCG levels did not regress despite a uterine evacuation. Following the preliminary diagnosis of ectopic pregnancy, an observation period of 1e8 days elapsed before the first dose of Mtx. In the intervening period, the patients were regularly monitored for abnormalities in hemodynamics by measuring blood counts and blood b-hCG levels every other day. If the blood b-hCG level did not regress spontaneously (15%/24 h drop during serial b-hCG measurements with or without a uterine evacuation performed according to findings of endometrial thickness 10 mm, sonographic view of intrauterine conception or passage of tissues with uterine bleeding), medical treatment was started. The single-dose Mtx treatment protocol was used for patients with a preliminary diagnosis of ectopic pregnancy and a b-hCG level <10,000 mIU/mL; with nonhomogeneous adnexial masses 5 cm; absence of fetal cardiac activity, absence of signs of hemoperitoneum or hypovolemia; and normal blood counts and renal/liver function tests. Mtx was administered at a single intramuscular (IM) dose of 50 mg/m2 on day 0, unless there were contraindications. The patients were hospitalized and watched expectantly following the drug administration while being checked for signs of acute abdomen and serious intraabdominal bleeding until a surgical intervention was indicated or for 7 days. Blood tests (biochemistry, blood parameters, and b-hCG) were measured on day 4. If a 15% decrease was not observed in the blood b-hCG level from days 4e7 or if a plateauing or rising blood b-hCG level was observed during follow-up of resolution, a second dose of 50 mg/ m2 Mtx was administered IM, followed by the same cycle of followup as for the first Mtx dose. If a 15% drop was observed, the patients were observed weekly. Failure of the single-dose Mtx treatment was considered if extra doses of methotrexate were required, or if a surgical intervention was made due to an intervening clinical picture of tubal rupture. Exclusion criteria from the analysis included: spontaneous regression during observations with or without a uterine evacuation; lost to follow-up; nontubal ectopic pregnancy; and surgery prior to medical treatment. Data extracted from the database included demographics and clinical presentations of the patients; sonographic findings, length of the observation period before treatment, and all b-hCG levels measured including those measured on days 0, 4, and 7 following Mtx administration. Intervening surgeries and clinical outcomes are summarized in Table 1 and Fig. 1. Data derived for analysis were the percentage changes in blood b-hCG levels: [b-hCG] ((Day 0eDay 4)/Day 0) and [b-hCG] ((Day 4eDay 7)/Day 4); also represented by [b-hCG] (Day 4/Day 0) and [b-hCG] (Day 7/Day 4), respectively; and daily changes during the observation period were derived by logarithmic transformation of the ratios. In this study, we refer to changes in b-hCG as quotients of values measured on the annotated days (e.g., the conventional day 4 to day 7 change of 15% as ([b-hCG] level on day 7)/([b-hCG] level on day 4) represented by the day (7/4) change of 0.85, etc.) Univariate tests were used to define significantly different variables among the single-dose Mtx successfully (Group 1) cured and the single dose Mtx failed (Group 2) groups requiring more than one dose of Mtx or surgery after the initial dose. A receiver operating characteristics (ROC) curve analysis of these variables defined the threshold values that were used to derive new dichotomized variables for the multivariate logistic regression analysis to predict failure of the single-dose Mtx treatment. P-values < 0.05 were considered significant. Microsoft Excel (Microsoft Inc. Redmond, WA, USA) and SPSS 20.0 (SPSS Inc., Chicago, IL, USA) software were used to analyze the data.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 16 |
| فرمت فایل | ppt |
| حجم فایل | 720 کیلو بایت |
| تعداد صفحات فایل | 26 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با منطق فازی و معرفی پروفسور لطفی زاده
تعداد اسلاید: 26 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
نگاهی به زندگی و فعالیت های پروفسور لطفی زاده
دنیای فازی
پیشینه منطق فازی
کاربردهای منطق فازی
منطق فازی و هوش مصنوعی
قسمتی از متن پاورپوینت:
تئوری مجموعه های فازی و منطق فازی را اولین بار پرفسور لطفی زاده در رساله ای به نام "مجموعه های فازی - اطلاعات و کنترل" در سال 1965 معرفی نمود. هدف اولیه او در آن زمان، توسعه مدلی کارآمدتر برای توصیف فرآیند پردازش زبان های طبیعی بود. او مفاهیم و اصلاحاتی همچون مجموعه های فازی، رویدادهای فازی، اعداد فازی و فازی سازی را وارد علوم ریاضیات و مهندسی نمود. از آن زمان تاکنون، پرفسور لطفی زاده به دلیل معرفی نظریه بدیع و سودمند منطق فازی و تلاش هایش در این زمینه، موفق به کسب جوایز بین المللی متعددی شده است.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 15 |
| فرمت فایل | ppt |
| حجم فایل | 1031 کیلو بایت |
| تعداد صفحات فایل | 81 |
مشخصات فایل:
عنوان: پاورپوینت سیستم مدیریت امنیت اطلاعات (ISMS)
تعداد اسلاید: 81 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
ISMS چیست ؟
حفاظت سه بعدی از اطلاعات سازمان
علل بروز مشکلات امنیتی
ضعف فناوری
ضعف پیکربندی
ضعف سیاست ها
استانداردهای ISMS
استاندارد BS7799 موسسه استاندارد انگلیس
استاندارد ISO/IEC 17799 موسسه بینالمللی استاندارد
ISO/IEC TR13335
مهندسی امنیت
تعریف مهندسی امنیت
اصول مهندسی امنیت
چرخه ی حیات مهندسی امنیت
تهیة خط مشی امنیت IT
سلسله مراتب اهداف، استراتژی و خط مشی
جنبههای تشکیلاتی امنیت IT
مدیریت امنیت IT
مدیریت پیکربندی
مدیریت تغییرات
مدیریت مخاطرات
کنترلهای امنیتی
انواع کنترل های امنیتی
کنترل های فنی
سیستم های اطلاعاتی
سرویسهای اساسی
روش های رمزنگاری
شبکه اختصاصی مجازی (VPN)
زیر ساخت کلید عمومی (PKI)
امضاء دیجیتالی
فناوری بیومتریک
انواع بیومتریکها
بیومتریک فیزیولوژیکی
بیومتریک رفتاری
برخی دلایل عدم توجه به ISMS در ایران
قسمتی از متن پاورپوینت:
با ارائه اولین استاندارد مدیریت امنیت اطلاعات در سال 1995، نگرش سیستماتیک به مقوله ایمنسازی فضای تبادل اطلاعات شکل گرفت. بر اساس این نگرش، تامین امنیت فضای تبادل اطلاعات سازمانها، دفعتا مقدور نمیباشد و لازم است این امر بصورت مداوم در یک چرخه ایمنسازی شامل مراحل طراحی، پیادهسازی، ارزیابی و اصلاح، انجام گیرد.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 16 |
| فرمت فایل | ppt |
| حجم فایل | 1076 کیلو بایت |
| تعداد صفحات فایل | 80 |
مشخصات فایل:
عنوان: پاورپوینت سرویسهای الکترونیکی
تعداد اسلاید: 80 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
فناوری اطلاعات
جامعة اطلاعاتی
شاخصهای استقرار جامعة اطلاعاتی
چشمانداز جامعه اطلاعاتی
ویژگیهای عصر اطلاعات
توسعه منابع انسانی: استراتژی محوری توسعه ICT
اینترنت ابزاری برای جهانی شدن
دولت الکترونیکی
بازآفرینی دولت در جامعه دانائی محور
ابعاد دولت الکترونیکی
مولفه ها
ارتباط دولت و شهروندان(G2C)
ارتباط دولت و کارمندان(G2E)
ارتباط دولت و شرکتها (G2B)
ارتباط دولت و دیگر سازمانهای دولتی (G2G)
بلوغ کشورها در ارائه خدمات الکترونیک به شهروندان
رٲی گیری الکترونیکی E-VOTING
مشکلات رٲی گیری اینترنتی
مزایای رٲی گیری اینترنتی
نکات مورد توجه در پیاده سازی e-voting
شهرهای الکترونیکی
هزینه یک مبادله بانکی؟
آمار E-Commerce
تجارت الکترونیکی
انواع تجارت الکترونیکی
مزایای تجارت الکترونیک از دید خریداران
مزایای تجارت الکترونیک از دید فروشندگان
مدلهای تجارت الکترونیکی
مدل Merchant
مدل همکار (Affiliate)
مدل اشتراک
تجارت سیار(mCommerce)
کاربردهای تجارت سیار
مزایای تجارت سیار
آموزش الکترونیکی
آموزش بکمک کامپیوتر
آموزش مجازی
ویژگیهای آموزش مجازی
محیط آموزش مجازی
استانداردهای آموزش مجازی
بهداشت الکترونیکی
کاربردهای مختلف IT در بیمارستان
تکنولوژیها و سیستمهای اطلاعاتی
موانع گسترش IT در پزشکی
مسائل کلان ایجاد خدمات الکترونیکی
زیرساخت های ارتباطی
زیرساخت های اطلاعاتی
زیرساخت های تجاری
آمادگی الکترونیک(e-readiness)
طبقه بندی مدلهای ارزیابی آمادگی الکترونیک
مدلهای ارزیابی جامعه الکترونیک
مدلهای ارزیابی اقتصاد الکترونیک
رتبه بندی اکونومیست اینتلیجنس
قسمتی از متن پاورپوینت:
فناوری اطلاعات شاخهای از فناوری است که با استفاده از سختافزار، نرمافزار، شبکهافزار وفکرافزار، مطالعه وکاربرد داده وپردازش آن را درزمینههای ذخیرهسازی، دستکاری، انتقال، مدیریت، جابهجایی، مبادله، کنترل، سوییچینگ ودادهآمایی خودکار امکانپذیر میسازد.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 20 |
| فرمت فایل | ppt |
| حجم فایل | 936 کیلو بایت |
| تعداد صفحات فایل | 35 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با تکنولوژی فیبرنوری
تعداد اسلاید: 35 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
تاریخچه
اجزای مختلف سیستم انتقال فیبرنوری
مزایای سیستم انتقال فیبرنوری
محدودیتها و نقاط ضعف فیبرهای نوری
مقایسه کابل فیبرنوری و کابل مسی
فیبر نوری چیست ؟
ساختار فیبرنوری
ضریب شکست
قانون بازتابش کلی
زاویه پذیرش ، مخروط قبولی نور و روزنه عددی
فیبرنوری چگونه کار میکند ؟
انواع فیبرنوری
انواع کابل فیبرنوری بر اساس اشعهگذرنده از آنها
انواع کابل فیبرنوری بر اساس ساختار مادهای آنها
انواع کابل فیبرنوری بر اساس ترکیب مواد مربوط به هسته
مشخصات انتقال فیبرنوری
نحوه ساخت فیبرنوری
ساخت فیبرنوری با روش MCVD
آزمایش فیبرهای تولید شده
مقایسهای بین انواع فیبرهای نوری
مزایای فیبرنوری
معایب فیبرنوری
کاربردهای فیبرنوری
منابع
قسمتی از متن پاورپوینت:
فیبرنوری یک موجبر عایق است که در فرکانسهای نوری کار میکند و معمولاً به شکل استوانه است .
ظرفیت فیبر نوری به نحوه ساخت ، جنس مواد تشکیلدهنده و پهنای طیف منبع نور آن بستگی دارد .
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 13 |
| فرمت فایل | pptx |
| حجم فایل | 1432 کیلو بایت |
| تعداد صفحات فایل | 22 |
مشخصات فایل:
عنوان: پاورپوینت امضای دیجیتال، فناوری نوین امنیت اطلاعات در فرایند های کسب و کار
تعداد اسلاید: 22 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
مقدمه
مشکلات و مسائل امنیتی در مبادلات الکترونیکی
الزامات و مفاهیم امنیتی در دنیای مجازی
راهکارها و ابزارهای امنیتی(امضای دیجیتال)
کاربردهای گواهی دیجیتال در تبادلات اینترنتی
کاربردهای امضای دیجیتالی در انواع کسب و کار
قسمتی از متن پاورپوینت:
امروز مدیریت اسناد الکترونیکی، ارسال و دریافت آنها بخش بزرگی از فعالیتهای اجرایی را شامل میشود.
یکی از تکنولوژیهایی که موجب افزایش اعتماد به این فرایند گردیده، امضای دیجیتالی است.
در اسناد مکتوب، امضا، نشان تایید تعهدات قبول شده در آن سند به شمار میآید.
در اسناد الکترونیکی هم نیازمند امضای الکترنیکی هستیم.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 9 |
| فرمت فایل | pptx |
| حجم فایل | 1155 کیلو بایت |
| تعداد صفحات فایل | 19 |
مشخصات فایل:
عنوان: پاورپوینت امضای الکتریکی
تعداد اسلاید: 19 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
مقدمه
معرفی امضای دیجیتال
دلایل استفاده از امضای دیجیتال
فرق امضای دیجیتال با دستی
پیاده سازی یک امضای دیجیتالی
نتیجه گیری
قسمتی از متن پاورپوینت:
یکی از تکنولوژیهایی که موجب افزایش اعتماد گردیده، امضای دیجیتالی میباشد. این تکنیک مبتنی بر رمزنگاری باعث به رسمیت شناسی اطلاعات الکترونیکی شده به طوریکه هویت پدیدآورنده سند و جامعیت اطلاعات آن، قابل بازبینی و کنترل میباشد و بخاطر ساختار غیرفیزیکی واسطه (وسیله حامل داده)، روشهای سنتی علامتگذاری فیزیکی واسطه توسط مهر یا امضاء (برای مقاصد تجاری و حقوقی) غیرقابل استفاده میباشند.
| دسته بندی | الکترونیک و مخابرات |
| بازدید ها | 12 |
| فرمت فایل | ppt |
| حجم فایل | 9708 کیلو بایت |
| تعداد صفحات فایل | 62 |
مشخصات فایل:
عنوان: پاورپوینت الکترونیک قدرت
تعداد اسلاید: 62 اسلاید
فرمت: پاورپوینت
فهرست مطالب:
مقدمه
دیودهای نیمه هادی قدرت
نواحی کارکرد دیود
انواع دیودهای قدرت
مدارات دیودی و یکسوکننده ها
دیودهای هرزگرد
آزاد سازی انرژی ذخیره شده در سلف
یکسوساز تکفاز نیم موج
یکسوساز تمام موج با ترانس سر وسط
یکسوکننده پل تمام موج
یکسوساز چند فاز ستاره
یکسو کننده پل سه فاز
تریستورها
مدل دوتراتزیستوری تریستور
روشهای روشن کردن تریستور
حفاظت در برابر di/dt
حفاظت در برابر dv/dt
انواع تریستورها
یکسوکننده های کنترل شده
یکسوساز نیم موج کنترل شده
مبدل کامل با بار به شدت سلفی
مبدل دوتایی تکفازذ
کنترل کننده های ولتاژ متناوب
اساس کنترل قطع و وصل
کنترل فاز
سیکلوکانورتر
کموتاسیون
کموتاسیون خود به خود self commutation
کموتاسیون ضربه
کموتاسیون پالس تشدید
کموتاسیون مکمل
کموتاسیون سمت بار
کموتاسیون سمت خط
چاپرها chopper
چاپر کاهش پله ای با بار مقاوتی
چاپر افزایش پله ای
طبقه بندی چاپرها
رگولاتورهای تغییر دهنده حالت
رگولاتور باک BUCK
رگولاتور بوست BOOST
رگولاتور باک – بوست
پارامترهای کارایی انواع یکسوکننده های دیودی
قسمتی از متن پاورپوینت:
الکترونیک قدرت ترکیبی از قدرت، الکترونیک و کنترل است.
الکترونیک، مدارها وسایل پردازشگر یا پردازنده سیگنالها را بررسی میکند که برای بدست آوردن هدفهای کنترلی مطلوب مورد استفاده قرار میگیرد.
قدرت، وسایل قدرت استاتیک و گردنده را که در تولید، انتقال و توزیع توان الکتریکی به کار گرفته میشود بررسی میکند.
کنترل به بررسی مشخصه های دینامیک و حالت پایدار سیستمهای با حلقه بسته میپردازد.
الکترونیک براساس خاصیت کلید زنی عناصر نیمه هادی قدرت پایه گذاری شده است.
شکل بعد رابطه الکترونیک قدرت با قدرت، الکترونیک و کنترل را نشان میدهد.
| دسته بندی | حقوق |
| بازدید ها | 31 |
| فرمت فایل | docx |
| حجم فایل | 46 کیلو بایت |
| تعداد صفحات فایل | 17 |
2 صفحه معرفی و فهرست بهمراه 15 صفحه تحقیق با موضوع جعل
فهرست این تحقیق
مقدمه
چکیده
تعریف جعل
عنصر قانونی
عنصر مادی
اضرار به غیر
عنصر معنوی یا روانی
مجازات جرم جعل
تعدد و تکرار در جعل
گذشت شاکی
جعل و سایر جرایم
تحقیق جعل
نتیجه گیری
منابع در مآخذ
| دسته بندی | علوم انسانی |
| بازدید ها | 23 |
| فرمت فایل | docx |
| حجم فایل | 57 کیلو بایت |
| تعداد صفحات فایل | 18 |
دانلود تحقیق با موضوع بودجه بندی سرمایه ای
فهرست این تحقیق
مقدمه
مبانی بودجه بندی سرمایه ای
فرآیند بودجه بندی سرمایه ای
بودجه بندی سرمایه ای و اهمیت آن
نقش مدیریت مالی در بودجه بندی سرمایه ای
مراحل اجرایی بودجه بندی سرمایه ای
مفروضات بودجه بندی سرمایه ای
فروش داراییها
معیارهای بودجه بندی سرمایه ای
الف- دوره برگشت سرمایه
ب- ارزش فعلی خالص
ج- نرخ بازده داخلی((IRR:
روش های بودجه بندی سرمایه ای..
تجزیه و تحلیل بودجه بندی سرمایه ای..
مرحله اول : تجزیه و تحلیل تصمیم.
مرحله 2 : انتخاب روش قیمت گذاری..
مرحله 3: جریانات نقدی تنزیل شده
اختیارات سرمایه گذاری در دارایی های سرمایهای..
انواع اختیارات سرمایه گذاری..
١- اختیار انتظار یا تأخیر :
٢ – اختیار واگذاری :
3- اختیار توسعه :
٤ – اختیار انعطاف :
منابع.
| دسته بندی | فایل های لایه باز و PSD |
| بازدید ها | 29 |
| فرمت فایل | rar |
| حجم فایل | 23590 کیلو بایت |
| تعداد صفحات فایل | 1 |
زیباترین لوح تقدیر بمناسبت روز خبرنگار (لایه باز )
کیفیت عالی
کاملا لایه باز
اندازه a4
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 30 |
| فرمت فایل | |
| حجم فایل | 460 کیلو بایت |
| تعداد صفحات فایل | 24 |
بخشی از ترجمه فارسی:
تصمیمات اتخاذ شده توسط متخصصان در صنعت ساخت و ساز غالبا تقریبی بوده و حاوی برخی اقسام بی دقتی است. مدل برنامه نویسی خطی کلاسیک ، شرایط تصمیم گیری را در محیط نامساعد و شکننده بهینه سازی می کند. اتخاذ یک تصمیم بهینه با اطلاعات غیر دقیق محیط پروژه با استفاده از LP مشکل است. در صنعت ساخت و ساز، شناسایی تعداد بهینه قطعات ساخت و ساز تجهیزاتی مستلزم دانش متخصص است. وقتی که درجات خاصی از انعطاف پذیری باید در یک مدل برای رسیدن به نتایج واقعی گنجانده شود، LP فازی استفاده می شود. با این حال وقتی پارامتر های تابع هدف در حالت مبهم قرار می گیرد، آنگاه اصل گسترش مناسب ترین خواهد بود که بر اساس عقاید شخصی و قضاوت های عینی می باشد.هدف این مقاله شناسایی تعداد بهینه قطعات تجهیزات مورد نیاز برای تکمیل پروژه در دوره هدف با داده های فازی است. مطالعه موردی واقع گرایانه ای برای بهینه سازی و LINGO6 جهت حل معادلات غیر خطی مختلف استفاده شده است.
لغات کلیدی: مجموعه های فازی، برنامه نویسی خطی فازی، اصل گسترش، انعطاف پذیری، تابع عضویت
2-تجهیزات ساخت
صنعت ساخت و ساز در بر گیرنده طیف گسترده ای از تجهیزاتی است که شامل اسکراپر ها، گریدر ها، حفار های هیدرولیک، ترنشر ها و لایه های لوله می باشند. بسته به نوع و ماهیت شغل های ساختمانی، تجهیزات و ابزارهای مختلف در نقاط زمانی مختلف طی دوره اجرایی نیاز هستند. این تجهیزات را می توان توسط کرایه سازی، خرید و یا انتقال از یک محل به محل دیگر نگه داری کرد. براورد دقیق تعداد تجهیزات خریداری شده، کرایه شده و تغییر یافته از مناطق دیکر بسیار مهم است. طبیعتا، قضاوت و براورد کیفی متخصصان از تعداد تجهیزات مورد نیاز و و از این روی اعداد براوردی می تواند موجب افزایش و یا کاهش این مقادیر شود. استفاده بهینه از این تجهیزات، آماده سازی یک برنامه تجهیزاتی و یا تقویم تجهیزاتی یک وظیفه مهم مدیر پروژه بوده طوری که مدیر ساخت و ساز هیچ گونه مشکلی در آرایش تجهیزات در زمان و مکان مناسب ندارد و کمبود تجهیزات هیچ کمکی در این زمینه نمی کند. لازم به یاد آوری است که عدم دسترسی به تجهیزات مناسب و یا ابزارهای دیگر در محل می تواند موجب زیان مالی و تاخیر شود. تجهیزات و کاربرد آن ها در محل لازم بوده و برنامه ریزی آن ها می تواند منجر به نتایج خوبی شود. تعداد و ظرفیت تجهیزات به شدت بستکی به ماهیت و اندازه پروژه دارد.
4.اعداد فازی
اعداد فازی توسط مجموعه های فازی تعریف می شوند که به صورت تک نقطه ی محدب و نرمال هستند. دو طبقه ی خاص از اعداد فازی عملا استفاده می شوند که شامل مثلثی و زوزنقه ای هستند. اگر یک عدد فازی باشد ان گاه مقادیر عضو را می توان به شکل ذیل در نظر گرفت:
8.بحث
چندین مشاهده ی مهم از انالیز فوق به دست امد. مقدار هدف با افزایش عرض tfn افزایش می یابد اگر چه این مطالعه ی موردی تنها TFN را در نظر می گیرد دیگر انواع نظیر اعداد فازی زوذنقه ای می توانند استفاده شوند. کاهش در تعداد قطعات تجهیزات خریداری شده و افزایش در تعداد قطعات اجاره شده می توانند مطمئنا موجب کاهش تعتداد تابع هدف شوند .به دلیل شرایط بازار نمی توان ان هار ا کاهش داد. تجهیزات این گام خری می توانند به دیگر مکان ها در صورتی که نیاز به یک محیط پروژه ایجاب کند انتقال داده شود.
بخشی از مقاله انگلیسی:
Abstract Decisions made by the experts in the construction industry are usually approximate and contain some sort of imprecision. Classical linear programming (LP) model optimize the decision making situation in a crisp environment. It is difficult to get an optimum decision with imprecise information of the project environment using LP. In the construction industry, identifying optimum number of construction pieces of equipment require experts’ knowledge. When certain degree of flexibility needs to be incorporated in the given model to get more realistic results, fuzzy LP is used. But when the parameters on constraints and objective function are in a state of ambiguity then the extension principle is best suited, which is based on personal opinions and subjective judgments. The objective of this paper is to identify the optimum number of pieces of equipment required to complete the project in the targeted period with fuzzy data. A realistic case study has been considered for optimization and LINGO6 has been used to solve the various non-linear equations. q 2003 Elsevier Ltd. All rights reserved. Keywords: Fuzzy sets; Fuzzy numbers; Fuzzy linear programming; Extension principle; Flexibility; Membership function 1. Introduction Decision making in construction industry is very complex and requires deep knowledge of various construction management techniques. Operations Research (OR) techniques are widely used under such circumstances through appropriate mathematical models. Of all the models of OR Linear Programming (LP) is widely used in the construction industry. In LP models, all the information pertaining to the problem is expressed in terms of linear constraints on the decision variables where the data is precise. Many project managers arrive at feasible decisions using this model. The construction industry is clearly affected by market conditions, i.e. by ups and downs in construction activity and by the size and the type of the construction projects undertaken. It is also affected by technological innovation in fields such as materials, metallurgy, mechanical systems, electronic sensing and hydraulic controls. The industry focuses on the continuous improvement of its products by introducing advanced technology [1]. In addition, the success of any construction project depends on the efficiency and economy achieved in the construction phase of the project. The economy of the project is dependent on accurate and elaborate analysis in early stages of construction. But in real project, activities must be scheduled under limited resources, such as limited crew sizes, limited equipment amounts, and limited materials [2]. The presence of large number of interacting variables creates a problem for optimization. Decisions are mainly based on the conceptual understanding of the project by the experts and are usually vague. Therefore, consideration of imprecise and vague information becomes an important aspect in the decision making process. In view of uncertain environment prevailing in the construction industry, the ability to arrive at an optimal decision is most important for its success. Hence, decisions in the construction industry are to be taken only after evaluating the feasibility of an alternative with respect to various criteria affecting its outcome. The traditional quantitative methods of assessing the feasibility of an alternative such as payback period, rate of return, and benefit cost analysis evaluate the project from the aspect of monitory costs and benefits. But many 0965-9978/$ – see front matter q 2003 Elsevier Ltd. All rights reserved. doi:10.1016/S0965-9978(03)00111-X Advances in Engineering Software 35 (2004) 27–33 www.elsevier.com/locate/advengsoft * Corresponding author. E-mail addresses: vsskumar@hd2.dot.net.in (V.S.S. Kumar), eshwar_konkati@rediffmail.com (K. Eshwar). non-quantitative factors and approximate numbers such as availability of labor, weather conditions, and number of equipments also influence the construction project. The above methods fail to incorporate the necessary qualitative parameters and uncertainty in decision making and thus it is difficult to get an optimum decision in construction industry for optimal deployment of machinery. These uncertainties can be accommodated into the analysis using Artificial Intelligence techniques such as fuzzy sets, neural networks, and expert systems. The successful application of fuzzy logic reflects the true situation of the real world, where human thinking is dominated by approximate reasoning. Hence to obtain optimality, hybrid optimization techniques are used for incorporating flexibility in decision making. Fuzzy LP makes it possible to accommodate these intangible factors in a most systematic way. The objective function is characterized by its membership value and so are the constraints. In fuzzy LP, the decision maker establishes a satisfaction criterion rather than just maximizing or minimizing the objective function. Here, each of the constraints is modeled as a fuzzy set with their respective membership values. The aim of this paper is to introduce the approximate numbers into the analysis for optimal decisions. This is done by incorporating flexibilities in the coefficients of the objective function and constraints for an optimal value. The approach described in this paper is intended to illustrate the practicability of applying fuzzy LP with fuzzy parameters to civil engineering problems and the potential advantages of the resultant information. 2. Construction equipment Construction industry comprises of broad range of equipment which include scrapers, graders, hydraulic excavators, trenchers, pipe layers, etc. Depending upon the type and nature of the construction jobs, various equipments and tools are required at different point of time during the execution period. These equipments can be accommodated by hiring, buying or by transferring from other sites. It is important to estimate exactly, the number of equipments to be bought, hired and number of equipments that can be adjusted from the other sites. Normally, experts’ qualitatively judge the number of equipments required and hence there is every possibility that the estimated numbers may increase or decrease at the site. Optimally deploying these equipments, preparing an equipment schedule or equipment calendar is an important task of the project manager, such that the construction manager may have no difficulty in arranging the equipments for the purpose at the right time and the work will not be held up because of lack of any equipment. It must be remembered that non-availability of the appropriate equipment or extra idle equipments/tools on the site may lead to financial loss and delays. Hence, the knowledge of various equipments and their usage on the site is necessary and proper planning of them will always fetch good results. The number and the capacity of the equipment is entirely dependent on the nature and the size of the project. 3. Literature review In construction industry, optimal deployment of machinery plays a significant role. Even though conventional quantitative techniques are efficient enough for getting optimal decisions, they have their own drawbacks. Fuzzy set theory was developed by Zadeh in 1965 for analyzingthedecisionproblemsinvolvingfuzzyinformation. Since then, more than 5000 publications have highlighted the concept and diversified the use of fuzzy set theory. Bellman and Zadeh [3] developed a decision theory based on fuzzy goals and constraints. In their opinion decision is the confluence offuzzy goals and Constraints. Zadeh [4] outlined the rules of fuzzy set interpretation of linguistic hedges. He presented systematic conversion of qualitative factors into membership grades for decision analysis. Sasikumar and Mujumdar [5] stated that the imprecisely defined goals and constraints are represented as fuzzy sets in the space of alternatives. Ayyub and Haldar [6] developed a method for estimating the duration of construction activities based on fuzzy set models, and the factors affecting the activity duration. In subsequent years, decision methodologies are developed for selecting and designing construction strategies using approximate reasoning. Wang et al. [7] have evaluated a competitive tendering methodology using fuzzy set theory. Lorterapong [13] proposed the fuzzy network scheduling (FNET) model in which a fuzzy heuristic method was developed to solve the resource constraint project-scheduling problem under uncertainty. Kumar et al.[8] applied fuzzy set theory to working capital requirement. Skibniewski and Armijos[9] adopted LP approach to construction equipments and labor assignments. Mohan [10] used fuzzy LP for optimal crop planning for irrigation system dealing with the uncertainty and randomness for the various factors affecting the model. Tanaka and Asai [11] have formulated a fuzzy LP problem and considered the ambiguity of parameters. Cross and Cabello [12] applied fuzzy set theory to optimization problems, where multiple goals exist. They have solved a multi-objective LP problem with fuzzy parameters for borrowing/lending problem. It is found that several methods have been suggested for including non-quantitative variables into the decision making process. But very few people have incorporated the complete fuzziness in to the problem. A civil engineering problem comprise mostly of complete fuzzy data, which have to be incorporated to arrive at optimal decisions. In this paper, the scope has been expanded to include applications in civil engineering projects where optimal 28 K. Eshwar, V.S.S. Kumar / Advances in Engineering Software 35 (2004) 27–33 equipment allocation is required with ambiguity for the number of equipments to be bought or rented in the construction industry. The approach described in this paper illustrates the practical applications of fuzzy LP with fuzzy parameters to civil engineering problems and the potential advantages of the resultant information.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 27 |
| فرمت فایل | |
| حجم فایل | 282 کیلو بایت |
| تعداد صفحات فایل | 15 |
بخشی از ترجمه فارسی:
مقدمه:
ضروری است که در محاسبه کامپیوترهای امروزی دارای این تکنولوژی باشد که بتواند نگهداری کند که دستگاه واسط بین آن دستگاه و مجموعه آن است که برای الحاق به یک PC که معمولا به صورت یک باریکه عمل می کند.
وقتی که به سرعت پردازش می رسد و توانایی داده ها به همراه کار پردازنده در حدود GHZ 5/1
است هارد دیسکی که عملیات را در کمتر از 7200 دور در دقیقه انجام می دهد و CD_ROM هایی که عملیات خواندن و نوشتن را به صورت سرعت X32 انجام می دهند پس از این مطلب مهم است که ما دستگاه ورودی و خروجی خود را باید بیشتر از KBPS115 به صورت پورت موازی استاندارد انجام دهیم چندین تکنولوژی که رو به توسعه می باشد که گذشته از 10 سال است آدرس آن دارای دستگاه ورودی خروجی است .
دو تکنولوژی از تکنولوژی های شناخته شده که از همه معروفتر و پر کاربردتر می باشند تکنولوژی USB و تکنولوژی FIER VIRE می باشد هر دو تکنولوژی در صدد پیشرفت در زمینه افزایش اطلاعات در مدت زمان کمتر می باشند که توان عملیاتی آنها بین پردازنده و دستگاه های جانبی می باشند این تکنولوژی ها به ما اجازه می دهد که پهنای باند را افزایش دهیم.
تکنولوژی USB به صورت ویژه ای بر روی USB 2.0 اعمال شده است و تنظیم می شود این بحث به وسیله یک مقدمه به تکنولوژی USB آغاز می شود و برای تبدیل هر قسمت از کامپونت حاضر می شوند که به وسیله معماری لایه ها و توابع داده ای دسته بندی شده است.
در جمع یک بسته ااز تئابع کامل شده برای USB 2.0 می باشد که این USB به حالت حاضر قرار دارد در پایان سعی شد که یک مقایسه بین USB 2.0 و1394 IEEE انجام شود.
گزارش آزمایش:
خلاصه ای از معماری تبدیل USB به سریال :
1- پیش زمینه:
استفاده از سیستم SEA LEVEL یک معماری بی همتا برای تبدیل سیگنال ها از پورت USB به دستگاه سریال می باشد مهم این است که هر مکان داده ای که ارتباط اجرای یک تبدیل USB اختصاصی به وسیله UART مانند معماری SEA LEVELبتواند در دو حالت آنها را مقایسه کند که این کار در مقابل صنعت معماری میانگین و در اختیار گذاشتنی توان عملیاتی طراحی شده است.
2- هدف آزمایش:
هدف اصلی از تصمیم این آزمایش انتخاب کردن یک USER برای به صورت اختصاصی در آوردن کاربردهای او می باشد.
3- یافتن :
در واقع یک طرح اساسی در هر شکل از چند معماری و صنعت مهماری میانگین برای تبدیل یه سریال می باشد کارایی آزمایش 8 پورت سریال USB نشان می دهد که نوع معماری بیشترین زمان را رقم می زند و عملی مهم تر از بقیه می باشد.
معماری SEA LEVEL دارای8 تبدیل کننده پورت سریال به صورت جفت جفت هر پورت به صورت اختصاصی USB می باشد که با اتصال 8 پورت تکی سریال USB با کامپیوتر میزبان به صورت هم ارز در می آید بدین وسیله هر پورت سریال برای اجرا در بالاترین سرعت ممکن اجازه می دهد (تمامی USBهای SEA LINK دارای همین نوع معماری می باشد)
4- شیوه آزمایش :
آزمایشات بر روی سریال USB در کامپیتر های شخصی به وسیله یک CPU P4 3GH و یک RAM 2GH یک نسل جدید از وینوز XP نیاز است و بدین وسیله انجام می شود هر پورت سریال در حد اکثر زمان قرار دارد سپس چند نمونه win ssd شروع به کار می کند که به وسیله هر پورت سریال باز شده و بیت ERROR صادر می شود انتقال و گرفتن داده که با یکدیگر جمع می شوند تمامی پورت هات را جمع می کنند
بخشی از مقاله انگلیسی:
Introduction With the ever-increasing computing power of today’s PCs it is necessary to have supporting technology that is able to keep up and not bog down the system. Human interface devices and other peripherals that attach to a PC are usually the bottleneck when it comes to overall processor speed and data throughput.With processors working in excess of 1.5 GHz, hard disks that operate at a minimum of 7200 rpm, and CD-ROMs that read and write at upwards of 32x, it is necessary to have external I/O devices that operate faster than the 115 kbps standard parallel port. Several technologies have been developed over the past ten years that address this issue of slower external I/O devices. Two of the hottest technologies are USB and Fire Wire. Both of these technologies have been developed to increase the overall data throughput between the processor and external devices.These technologies have allowed, and will allow, higher-bandwidth peripherals to be developed and implemented for the PC, digital video cameras, broadband digital cable modems, and HDTV to name a few. The technology is quickly matching the pace of the computing power of a PC. This paper focuses on the USB technology, specifically on the new USB 2.0 specifications. Thediscussion begins with an introduction to USB technology, the physical topology, and how it operates.Following, a detailed discussion on the USB 2.0 technology will be presented covering the component parts, layered architecture, data flow types, and packetization specifics. In addition a brief discussion on an emerging compliment to USB 2.0, the USB On-the-go, will be presented.Finally a comparison between USB 2.0 and IEEE 1394 (Fire Wire) will be presented. Part 1: Overview of USB Technology Universal Serial Bus (USB) was originally created and released as a standard in 1995 with USB 1.0. It was jointly developed by Compaq, Hewlett-Packard, Intel, Lucent, Microsoft, NEC, and Phillips, which make up the USB Implementers Forum (Ziller, 2002). This same group has just released specifications for USB 2.0. The overall motivation for the development of USB stemmed from three main sources: • Connection of the PC with the telephone: The convergence of the telephony and data networks has spawned a race to develop technologies that can work to interconnect the two with ease. • Port expansion: The development of a port that supported multiple devices would lessen the confusion when working with external I/O devices. • Ease-of-use: If all of the computer’s I/O devices could connect to a single port, the fear of setting up a computer would virtually disappear (USB, 2000). With these three fundamental motivations, USB technology was developed and has become an industry standard for the interconnection of peripheral I/O devices. This section takes an elementary look at the physical characteristics, physical and logical topology, and how it all works. 1.1 Physical Characteristics and Throughput Capabilities Universal Serial Bus technology is exactly as it sounds. It is a bus, which is a mechanism for transferring data and instructions from one point to another, that transmits data bit by bit or in a serial fashion and is able to communicate universally to many different devices. The USB is simply another way of transferring information between external I/O devices and the internal processor of the computer.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 26 |
| فرمت فایل | |
| حجم فایل | 10160 کیلو بایت |
| تعداد صفحات فایل | 25 |
بخشی از ترجمه فارسی:
با بکار بردن فرآیند تولید اتوماتیک خط تولید و سیستم مدیریت صنعت به ساخت مدرن برای مرجع، یک مدل جدید از محیط مهندسی نرمافزار مجتمع براساس خط تولید پیش برده شده است و چارچوب و تحقق مکانیزم مدل جدید در این مقاله کاملاً تحلیل شده است. مدل جدید دارایی (منابع) هسته خط تولید را به عنوان عامل عمومی قرار میدهد. بخش بالای آن محیط توسعه خط تولید را با تحقق تولید انبوه محصولات نرمافزاری، حمایت میکند، در حالی که بخش پایینی محیط توسعه نرمافزار رایج سنتی است که توسعه کدهای منبع و اسناد اجزای منبع هسته خط تولید را انجام میدهد. در مقایسه با مدلهای محیط توسعه خط تولید موجود، قابلیت توسعه و تحقق یک مدل جدید کاملاً مشابه با مد تولید خط تولید اتوماتیک و سیستم مدیریت صنعت تولید فعفی بوده و احتمالاً محیط تولید نرمافزار دلخواهی که صنعت مهندسی نرمافزار در آینده توسعه خواهد داد میباشد.
1ـ مقدمه
در سالهای اخیر، با رشد تدریجی و به کار بردن تکنیکهای جدید از جمله معماری نرمافزار، اجزای نرمافزار، استفاده مجدد وسیع نرمافزار، و غیبره متد مهندسی نرمافزار براساس خط تولید توجه وسیع مهندسی نرمافزار را به خود برانگیخته است و هماکنون مرکز داغ و اولویت مطالعات فعلی در زمینه مهندسی نرمافزار شده است. تولید انبوه محصولات نرمافزاری سفارشی در یک زمینه خاص، که مشابه با مدهای تولید اتوماتیک خط تولید محصولات صنعتی کارخانهای مدرن میباشد (مثل ماشین، تلویزیون و غیره) این در تولید نرمافزار دلخواه که 40 سال در تولید مهندسی نرمافزار دنبال شده است و تأثیر زیادی در قالببندی و توسعه املاک نرمافزای مدرن دارد و جامعه عظیم و تأثیر اقتصادی زیادی ایجاد میکند. [3-1]
2ـ موقعیت فعلی بررسیهای خط تولید نرمافزار
ما مرهون بودن به روش مهندسی نرمافزار مبتنی بر خط تولید، تغییراتی اساسی در توسعه نرمافزار از روش سنتی یکباره روش برنامهنویسی دستی، «الگوریتم + منابع داده + کد نیروی انسانی «به تولید صنعتی شده» معماری نرمافزار + اجزای نرمافزار + خط مونتاژ (استفاده مجدد سیستمی)» وجود داشته است که با سیستم تولید صنعت کارخانه داری مدرن شناخته شده است (از جمله ماشینها و دستگاههای تلویزیون و غیره).
روش خط تولید نرمافزار باید به موفقیت محیط توسعه مجتمع براساس خط تولید با ویژگیهای مهندسی خط تولید و ظرفیت تولید اعتماد کند. چنین محیطی محیط مهندسی نرمافزار مجتمع مبتنی بر خط تولید نامیده میشود. بنابراین، تحقیقات، مفاهیم و کاربردهای محیط مهندسی نرمافزار مجتمع مبتنی بر خط تولید، نقش بسیار مهمی در تولدی نرمافزار اتوماتیک و صنعتیسازی صنعت نرمافزار داشته و ابتکارات استراتژیکی برای جهان شده است تا زمینه صنعت اطلاعات را مشغول کرده و اقتصاد پایدار و سریع و توسعه اجتماع را ارتقاء بخشد.
اما، میتوانیم به طور واضح ببینیم که قالببندی و توسعه روش مهندسی خط تولید نرمافزار ار مد تولید اتوماتیک خط تولید صنعت کارخانهداری مدرن برای منابع مبتنی بر دامنه مهندسی، معماری نرمافزار، اجزای نرمافزار و فناوری استفاده مجدد از نرمافزار استفاده میکند. هدف آن بنا نهادن خط تولید نرمافزار و تحقق تولید صنعتی شده محصولات نرمافزاری با استفاده از فناوریهای معماری نرمافزار در زمینه خاص استفاده مجدد سطح سیستم میباشد.
به طور واضح، محیط مهندسی نرمافزار مجتمع مبتنی بر خط تولید ضرورتاً با محیط توسعه نرمافزار رایج کنونی که مبتنی بر ساختار و یا شیءگرایی است (منحصراً محیط توسعه سنتی نامیده میشود) تفاوت زیادی دارد.
روش قبلی به منظور تحقق صنعتیسازی و تولید اتوماتیک محصولات نرمافزاری سفارش انبوه در زمینه خاص مطابق با «معماری نرمافزار + اجزا + مونتاژ» در یک زمینه خاص بود در حالی که روش اخیر مطابق با «ساختار داده + فرآیندها + کدگذاری دستی» میباشد که به معنای توسعه یک باره از برنامههای نرمافزاری رسمی، و محیطهای عمومی حد مناسب محیط را نیز معین کرده و مدهای تولیدی، حاصلخیزی و انتقال بروزرسانی موضوع بسیاری از محدودیتها خواهد بود. علاوه بر این، کاملاً با مد تولید و جهت توسعه صنایع کارخانهداری مدرن متفاوت است زیرا به عنوان یک خط تولید رایج در کارخانجات ماشین، هواپیما، تلویزیون و دیگر محصولات در زمینههای دیگر قابل استفاده نمیباشد.
این تأسفبار است که در فرآیند فعلی تحقیق و توسعه محیط توسعه نرمافزار مجتمع مبتنی بر خط تولید مردم تفاوت اساسی بین محیط توسعه نرمافزار سنتی و روش مجتمع مدرن را نفهمیدهاند. بررسیها و توسعه روشهای مهندسی نرمافزار خط تولید و محیطهای توسعه مجتمع هنوز بر مبنای روشها و ایدههای مهندسی نرمافزار سنتی انجام میشود، که درست نیست.
همانطور که CMU/SEI و تعدادی از نوشتهها [5-4] نشان دادند. تاکنون، هیچ محیط مهندسی نرمافزاذر مجتمعی براساس خط تولید با منطق درست وجود نداشته است. به عبارت دیگر، وضعیت واقعی تحقیق و توسعه این است که تعدادی از شرکتهای نرمافزار برخی از مفاهیم اجزا را بر پایه محیط توسعه نرمافزار موجودشان معرفی میکنند و تعداد مناسبی از کنترلها را اضافه میکنند، سپس فکر میکنند که به سمت به اصطلاح محیط مهندسی نرمافزار مجتمع مبتنی بر خط تولید تغییر شکل دادهاند.
برای مثال IBM، محیط توسعه SUN’S JZEE و غره از این نوع هستند، اینها بسیار پایینتر از منطق صحیح خط مونتاژ اتوماتیک با ظرفیت تولید و ویژگیهای خط تولید نرمافزار محیط توسعه مجتمع در صنعت کارخانهداری مدرن هستند. البته برای علایق متخصصان و چندین قرن مدلهای توسعه مهندسی نرمافزار، خصوصاً نرمافزار سیستم و ابزارهای فرایند توسعه نرمافزار، این طبیعی و قابل درک است، زیرا متخصصان باید محصولات و علایق فعلیشان را نیز حساب کنند. این امکانپذیر است که کاملاً محصولات نرمافزاری محبوب و وسیع را بدون توجه به ریسک دنبال کردن یک محصول جدید علیرغم سود اقتصادی و وجهه خوبشان دور بیندازیم.
این مقاله روی منطق واقعی مدل محیط توسعه خط تولید نرمافزار با مد تولید خط تولید و ظرفیت صنعت کارخانهداری مدرن تمرکز دارد و بیشتر ساختار و تحقق مکانیزم را بررسی میکند.
3ـ فرآیند مهندسی نرمافزار و مدل چرخه حیات براساس خط تولید
الزاماً، محیط مهندسی نرمافزار مبتنی بر خط تولید نوعی از خط تولید است که شبیه به خط تولید اتوماتیک در صنعت کارخانهداری مدرن است. این همچنین یک روش مهندسی نرمافزار جدید و فرآیندی برای اجرای تولید سفارشی انبوه محصولات نرمافزاری در یک دامنه خاص براساس اجزای استاندارد منابع هسته از جمله معماری نرمافزار، اجرا، تکههای متصل، نقشه تولید، سفارشیسازی، اسناد و غیره میباشد.
بنابراین، چیزی که در تحقیق راجع به محیط توسعه نرمافزاری خط تولید بیشترین اهمیت را دارد ایجاد مدل پردازش توسعه نرمافزار و مدل چرخه حیات است که برای شناسایی و روشهای تولیدی خط تولید مناسب است. این برای توصیف کل فرآیند توسعه تولیدات براساس خط تولید به صورت سیستمی استفاده میشود و سپس به عنوان راهنمایی برای تعیین کاربردهای مبتنی بر پیام، پیکرهبندی ابزارها و فرایند تولید در نظر گرفته میشود.
هدف آن توصیف ترتیب فعالیتها و جریانکاری و چارچوب وظایف، ارسال محصولات و استانداردهای فرایند مهندسی نرمافزار براساس خط تولید، به طور کامل واضح و مشخص میباشد و خط راهنما به نرمالهای عملی و رفتاری برای اجرای مهندسی خط محصولات نرمافزاری و محصولات نرمافزاری پیشنیاز خواهد بود و زیرساخت مهمی برای تحقیق روی محیط توسعه نرمافزار مجتمع خواهد بود.
در سالهای اخیر نتایج تحقیقات مقدماتی روی تحقیق مدل پردازش مهندسی خط تولید انجام شده است. برای مثال: مدل خط تولید نرمافزار بل طول عمر دو برابر و مدل SEI. [8-7] اما مدلهای ساده به سختی میتوانند نیازهای کل فرآیند را با وصف توانمندیهای سیستم مدیریت نرمافزار مدرن، مد تولید، انقلاب آموزش الکترونیکی، کنترل کیفیت و غیره، از جمله سازماندهی چند لایهای در لایههای بالایی و پایینی و سیستم مدیریت بینالمللی، ملیتها، صنعت، دامنهها و کاربردها و غیره که ملاکشان پروژه خط تولید است، ویژگیهای فرایند مهندسی و مد، متدهای تولید تکراری چند سطحی و انقلاب محصولات چندبعدی میباشد. [13]
بخشی از مقاله انگلیسی:
Using product line automatic production procedure and the management system of modern manufacturing industry for reference, a new model of integrated software engineering environment based on product line is put forward, and framework and realizing mechanism of the new model is mainly analyzed in this paper. The new model takes product line core asset (resource) components as the agent bus. The upper of it supports the product line development environment realizing the assembling production of software products, while the lower is traditional common software development environment implementing the development of source codes and documents of product line core resource components. Compared with the present available product line development environment models, the developing and realizing ability of the new one is completely similar to production mode of automatic product line and management system of current manufacturing industry, will be likely to become an ideal software production environment that the future software engineering industry develops.
Keywords
software product line; core assets; ISEE-integrated software engineering environment; software architecture; software component
| دسته بندی | فایل های لایه باز و PSD |
| بازدید ها | 17 |
| فرمت فایل | rar |
| حجم فایل | 37676 کیلو بایت |
| تعداد صفحات فایل | 1 |
یک نمونه بسیار زیبا از لوح تقدیر و سپاس قرآن
کیفیت بسیار عالی
بصورت کاملا لایه باز و قابل تغییر
آماده برای چاپ
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 37 |
| فرمت فایل | |
| حجم فایل | 309 کیلو بایت |
| تعداد صفحات فایل | 15 |
|
بخشی از ترجمه فارسی: فرایند یکپارچه منطقی (RUP) یک اسلوب سیستمهای اطلاعاتی است که امروزه در وسیع ترین حالت استفاده میشود. طراحان اصلی آن سه نفر هستند به نامهای ایوار یاکوبس، جرادی بوچ و جیمز رامبو، که همچنین زبان نمونهسازی یکپارچه را هم طرح کردهاند. این فرایند اساساً مبتنی بر خط مشی (روش) اریکسون، ابجکتوری و خط مشی منطقی (عقلانی) است که در سال 1995 با فرایند ابجکتوری منطقی ترکیب شدند. زبان مدل سازی (نمونهسازی) یکپارچه به همراه تجربهای از شرکت Rational، فرایند یکپارچه منطقی را تشکیل داد. وضعیت مسئله: |
|
فهرست مطالب این مقاله: • مقدمه |
|
بخشی از مقاله انگلیسی: Introduction The Rational Unified Process is the information systems methodolgy most widely in use today. The main contributers are the three amigos Ivar Jacobson, Grady Booch and James Rumbaugh who also designed the Unified Modeling Language. It is mainly based on the Ericsson Approach, Objectory and the Rational Approach, which were combined 1995 to the Rational Objectory Process. The Unified Modeling Language together with the expirience of from Rational Inc. acquired software tool companies formed the Rational Unified Process. The Unified Process is a software development process, that is the set of activities needed to transform a users’s requirements into a software system, but it is also seen as process framework, which can be specialised for different purposes. The three main aspects of the Unified Process are that it is • use-case driven • architecture-centric • iterative and incremental The basic sequence of an RUP project according to [2]: • Get the team together. • Decide what system will be built (there is apparently no other option than to build a system). • Build a use case model and UI prototype. • Use the UML process extensions to build an analysis object model. • Segue into the more conventional UML stuff to do the design – class, state, sequence diagrams and the like. • Think hard about architecture while you assign the designed classes to modules and packages • Test against the use case model. RUP provides some excellent guidance on testing. • Transition to live system and do the post mortem. Element 1: The Problem Situation The methodolgy is concered about the context. This is especially seen in the two core workflows Requirements and Analysis which are mostly important in the first to phases (Inception, Elaboration), but come all along the process, because of it’s iterative nature. As mentioned above the Unified Process is use-case driven. It means that the whole process is controlled by the way the users interact with the system. Every produced model can be traced back to a use case. That the Unified Process is architecture-centric means that also from the beginning of the process there is a strong emphasis on the architecture of the information systems. This includes hardware and frameworks used, distribution and programming languages. |
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 26 |
| فرمت فایل | |
| حجم فایل | 784 کیلو بایت |
| تعداد صفحات فایل | 20 |
|
خشی از ترجمه فارسی: چکیده: محدودیت های هر فناوری امنیتی به همراه رشد فشار حمالت سایبر، نیاز به وجود مدیریت امنیت اطلاعات را راروری ساخته و باعث افزایش فعالیت هایی می شود که بوسیله قسمت های از شبکه اجرایی و کارکنان امنیتی انجام می گیرد. بنابراین نیاز برای افزایش مکانیزم های ویرایش خودکار و گزارش های هوشمند برای اعتماد به سایبر وجود دارد. سیستم های هوشمند سیستم های محاسباتی خودکار بر مبنای روشهای هوشمند هست اند کاه از مراقبت پیوساته و کنتارن کاردن فعالیت ها حمایت می کنند. هوش باعث پیشرفت توانایی فردی برای تصمیم گیری بهتر می باشد. این تحقیق، ساختار مفروض یک سیساتم هوشامند برای مدیریت امنیت اطالعات )ISISM( را نشان می دهد. هدف از این سیستم بهبود بخشایدن باه فراینادهای مادیریت امنیت مثل مراقبت کردن، کنترن و تصمیم گیری در ابعاد موثر می باشد که باالتر از متخصصاین در سیساتم امنیتای قارار دارد و مکانیزم هایی را فراهم می کند تا باعث تقویت ساختار فعان دانش و آگاهی در مورد تهدیدات، سیاست ها، فرآیندها و خطرات شود. ما به مسائل مربوط به نیازها و طراحی برای اجزای اصلی سیستم هوشمند تمرکز می کنیم. واژگان کلیدی: مدیریت امنیت اطالعات، امنیت سایبر، سیستم هوشمند، معماری، کنترن بر مبنای عامل مرور کلی در مورد امنیت سایبر رشد فزاینده اینترنت، همگرایی اینترنت و برنامه های کاربردی چند رسانه ای بی سایم و خادمات ، چاالش هاای جدیاد امنیتی را بوجود آورده است (Miller, 2001) . امنیات یاک سیساتم پیسیاده اسات و مای بایسات در هاا ااااامه نقااط و بارای هار کااربری ماورد توجاه قارار بگیارد (Volonino, 2004). سازمانها نیاز به یک روش سیستماتیک برای ماادیریت امنیات اطالعاات دارناد کاه پیوساتگی امنیتی را در هر سطحی نشان می دهد. آنها به سیستم هایی نیاز دارند که از تخصیص بهینه منابع امنیتی به نسبت ریسک بیشاتر و آسایپ پاییری حمایات کناد . بهرحان زیربنای امنیتی در بیشتر سازمانها الزامات وجود آنرا نسبت به برنامه ریزی، روش بر مبناای تعامال ، مثال مشااهده آسایپ هاا و اساتفاده از نارم افزارهاای باه روز (Cardoso & Freire 2005)، نشاان مای دهاد & Gordon, Loeb (Lucyshyn, 2003(. از طرف دیگر برنامه های امنیتی ساااااااااایبرجهت نیازهای تخصصی تر برای کامپیوتر و امنیت شبکه می باشد که بااااااه ویرایش خودکار و ماااااکانیزم های گزارشی و تقویت محصوالت برای ارزشیابی های امنیتی و مادیریت تهدیادات ماورد اساااااتفاده قارار میگیارد ,Chan & Perrig 2003; Hwang, Tzeng & Tsai) .2003; Leighton, 2004) در کنار کنترن های امنیتی )سیستم امنیتی، رمزهای عبور، مشاهده تعدّی، برنامه هاای بازیافات حماالت و …( کاه وجاود دارد امنیت یک سازمان شامل مسائلی است. که عموما موروعاتی مثل سیاست ها، آموزش، عادات، آگاهی، فرآیندها و انواع دیگری از مساائل فناای و غیاار فنای می باشد.(Heimerl & Voight,2005) .آموزش امنیتای و آگااهی کاه در مورد استفاده گسترده از زیر بناهای دیجیتالی جدید میباشد (Tassabehji, 2005) همه این عااااااوامل امنیات را باه صاورت فرایندی در میآورندکه بر مبنای اصون داخلی می باشد (Maiwald, 2004; Mena, 2004). چالش های موجود در مدیریت امنیت اطالعات به همراه فقدان درک علمی از رفتارهای سازمانی نیاز به وجود سیستم های محاسباتی بهتر را باعث مای شاود که به طور موثر از فناوری های اطالعاتی حمایت کنند و روشهای جدیدی که بر مبناای روشاهای هوشامند و اطالعاات امنیتی می باشد برای همکاری و تقسیم اطالعات می باشد. سیستم های هوشمند به صورت سیستم های نرم افرازی جدید برای حمایت از برنامه های کاربردی پیسیده بوجود آمدند. در این تحقیق ما ساختاری را برای یک سیستم هوشمند برای مدیریت امنیت اطالعات )ISISM( فرض می کنیم کاه از فرآیندهای امنیتی در یک سازمان حمایت می کند. در میان این اجزا سیستم های هوشمند شامل عوامل هوشمندی هستند که سطح باالیی از خودکاری و کارکرد مناساپ را نشان می دهند.دانش موجود در سیستم حمایتی این کمک را به کاربران میکند تا با سطح باالیی از دقات باه فهام و حال مسائل موجود در قلمرو امنیت اطالعات بپردازند. بخش بعدی در این تحقیق خالصه نتایج مربوط به مدیریت امنیت اطالعات را نشان می دهد. یک مارور کلای در ماورد تهدیدات امنیت اطالعات که به همراه مرور روشهای AI برای برنامه های کاربردی امنیت سایبر می باشد. سپس ساختار و اجزای اصلی سیستم هوشمند را نشان می دهیم و نیازمندیهای طراحای خاار را بارای عوامال هوشا مند نشان می دهیم. مسائل اصلی مرتبط با طراحی و تکنولوژی ها را با استفاده از روش مهندسی سیستم ها نشان می دهیم. ماا سیستم هایی را مورد بررسی قرار می دهیم که بر مبنای کنترن بر مبنای عامل هوشمند هستند که روشای را بارای تحلیال، طراحی و اجرای سیستم های نرم افزاری پیسیده ارائه می کنند. ما نتیجه گیری را بر مبنای آیناده کیفای مادیریت امنیات اطالعات و تاثیرگیاری بصورت چند مثان ادامه می دهیم مدیریت امنیت اطالعات مسائل و رویکردها مدیریت سیستم اطالعات زیربنایی برای اطمینان از تاثیرگیاری کنترلهای امنیت اطالعات در طون مناابع اطالعا اتی مای باشد. آن مراقبت و کنترن مسائل امنیتی را نشان می دهد که برپایه اتخاذ خط مشای امنیتای ، تکنولاوزی هاا ، و اقادامات اصلی برای تصمیم گیری بوسیله افاراد قارار دارد . هادف از مادیریت امنیات اطالعاات اطمیناان از پیوساتگی، اعتمااد و موجودیت پییر بودن اطالعات در یک سازمان می باشد. اگرچه فناوری های امنیتی مختلف از کارکردهاای امنیتای خاصای حمایات مای کنناد مساائل دیگاری وجاود دارد کاه بار مدیریت امنیت اطالعات تاثیر می گیارد. اینها فناوری های موثر و قابل قیاس بندی نیستند چون بر مبنای تخصص انسانی در فواصل انسانی داده ها را تحلیل می کنند. بسیاری از ابزارهاا و سیساتم هاا رخادادی را تولیاد مای کنناد و نشاانه هاایی را از مشکالت بوجود می آورند. همسنین این ابزار ممکن است در زمانهاای مختلاف و از شارکت هاای مختلفای باا گزارشاات و توانمنادیهای مختلاف مدیریتی و بدتر از همه فهرستهایی از داده های مختلف بوجود بیایند. تکنولوژی های امنیتای بطاور پیوساته نیساتند و هار فناوری اطالعات را با فرمت خار خود ارائه می دهد. این سیستم ها با نسخه ها و خطوط تولید مختلف فعالیت میکنند و تمایل اندکی به اصالح داشته و یا کارکترهایی با عالمت جلوگیری از وقایع میباشند. بخاش هاای فاروش ممکان اسات دارای نشانه برابری نباشند. این تکنولوژی ها فاقد خصوصیات پیوستگی و تحلیل اطالعات جمع آوری شاده مای باشاند . عنوان مقاله: سیستم هوشمند برای مدیریت امنیت اطالعات: مسائل مربوط به طراحی و معماری مترجم: محمد فیض 4 در مدیریت امنیت، تحلیلگران می بایست انتخاب کنند که چگونه بهترین مشاهدات را جماع آوری کنناد و حاوزه هاای مورد عالقه خود را جدا کنند. بخش کوتاهی که بوسیله فناوری امنیت فراهم می شود نوع خاصی از درک مورد نیاز برای پیش بینی را فراهم می کند. سازمانها به انسانها مانند اجرا کننده شبکه یا کارمندان امنیتی نگاه مای کنناد کاه پایگاههاای اطالعااتی مختلاف را بارای تهدیدات جدید مورد بررسی قرار می دهند و از راه حل های ممکن برای جلوگیری از حمالت استفاده می کنند . اغلپ کارمندان امنیتی مختلف مسئون مراقبت و تحلیل اطالعات فراهم شده بوسیله یک سیستم هستند. گزارش ها نشان می دهد که کارمندان امنیتی بطور پیوسته تحلیل اطالعات و ارائه گزارش ها را انجام نمی دهناد و هماه نتاایج حاصال از تحلیل گزارشات را در اختیار مدیران امنیتی قرار نمی دهند. همسنین ابزار مورد استفاده بسیار محدود هستند ، چاون ایان سیستم ها فاقد قابلیت اجرایی برای تعمیم دادن، یادگیری و تطابق در زمان هستند. فناوری های امنیتی در حان حارر فاقد پیوستگی، پیش بینی و بازخور زمانی به انساانها هساتند و از حماالت جلاوگیری می کنند. همسنین فناوری ها در مقابل حمالت عظیم موثر نیستند. به عالوه محدودیت های هر فناوری امنیتای باه هماراه رشد فشار حمالت و افزایش فعالیت های این چنینی باید مورد توجه قرار بگیرند. مسائل خار شاامل جماع آوری داده، کاهش داده، نرمان کردن داده، پیوستگی رخداد، تقسیم بندی رفتار، گزارش و پاسخ است. بارای فاراهم کاردن تصاویر کامل، دقیق و جامع از رخدادهای شبکه فرایندهای بسیاری در آینده نزدیک مورد نیاز است. بنابراین راه حل های جاامع مورد نیاز است که شامل مشاهده حمالت منبع حمله و مشخص کردن و جلوگیری از خطر است. نیاز برای افزایش ویرایش خودکار و مکاانیزم هاای گازارش هوشامند وجاود دارد کاه از ارزشایابی امنیات و مادیریت تهدیدات حمایت می کند(chang 2002 ) . سیولی در مقدمه ای به گیاراتا نو و ریلی اعالم می کند که راه حل خودکارسازی منوط باه کااربرد ماوثر از حاوزه علام کامپیوتر می باشد که هوش مصنوعی نامیده میشود (Giarratano & Riley, 1989). راه حل هایی که از تحلیل در زمان واقعی حمایت می کنند بسیار مهم هستند چون باعث می شود از بروز حماالت اولیاه جلوگیری شوند. این نتایج در کاهش آسیپ بوجود آمده بوسیله حمالت موفقیت آمیز نقش دارند و خاااااطر از دسات رفتن اطالعات را کاهش می دهند(Kephart & Chess, 2003) . بیانیه IBM به مشکالت در مدیریت سیستم های محاسباتی اشاره می کند چون پیسیدگی آنها کارکردهای محدودی را برای انسان بوجاود مای آورد در حالیکاه نیااز باه پیوستگی و ارتباط داخلی وجود دارد. سیستم ها حتی برای پیوند دادن سیستم فنی پیسیده هستند. مدیریت امنیت اطالعات نیز از این قاعده مستثنی نیسات . یاک راه حل مفروض سیستم های محاسباتی خودکار است که خودشان می توانند مدیریت را انجام دهند. این سیستم ها به قابلیت های اجرایی مثل تنظیم خودکار و محافظت خودکاراحتیاج دارند. متاسفانه ممکن اسات بوجاود آوردن آن طون بکشد. در مقایسه با سیستم های خود کار روش دیگر سیستم هایی است که به تعامل موثر با عامل انسانی تاکید می کنند. برای مثان سیاست های امنیتی می توانند اجرای عامل را کنترن کنند و با انسان ارتباط برقرار کنند تا مطمائن شاوند رفتاار حاصل در مقابل تهدیدها و سیاست های امنیتی به چه صورت می باشد .(Bhatti, Bertino, Ghafoor & Joshi, 2004; Bradshaw, Cabri & Montanari, 2003) راه حل های مدیریت وقایع امنیتی مورد نیاز است تا اطالعات تهدید آمیز را از بخشهای مختلف جمع آوری کند، وقایع ا را از چندین منبع بهم پیوند دهد و وقایع قابل توجه را مشخص کند تا خطرات مدیریت نشده را تحت پوشش قرار دهد و باعث بهبود کارکرد امنیتی شود. نیاز به استفاده روز افزون از ابزار خودکار وجود دارد تا وقایع تهدیدات امنیتی را پیش بینی کنناد . ویارایش و مکاانیزم های گزارش هوشمند می بایست مدیریت را در مقیاس بزرگ و همه زمانها انجام دهد. ابزارهای خودکار کاهش نیاز باه انسان را برای انجام فرآیندها بوجود می آورند. مدیریت امنیت اطالعات به روش مدیریت وقایع امنیتی با تقویت قابلیت های اجرایی به سازگاری و تعمایم دادن احتیااج دارد که بتواند حمالت ممکن را پیش بینی کند و از فعالیت های انسانی حمایت کند. دوود و مک هنری)8991( به این نکته اشاره می کنند که امنیت شبکه می بایست بهتر درک و تقویت شاود و اساترات ی های پیشنهادی مثل ارزش حمایت از داده ها ، درک منابع خطر ،مشکالت سیستم اداری و مهندسی اجتماعی و تجاوزات داخلی و خارجی را نیز نشان می دهند . برای حمایت در مقابل جدیدترین نسل از تهدیدات سایبر، قوانین حمایتی پیشاگیری بایاد ماورد توجاه و حمایات قارار بگیرند. تاثیرگیاری سیستم مدیریت امنیتی بوسیله سیستم هوشمند بدست می آید که بصورت توانمنادی بارای مشااهده . حمالت ناشناخته با دقت می باشد(Wang, 2005). |
|
بخشی از مقاله انگلیسی: The limitations of each security technology combined with the growth of cyber attacks impact the efficiency of information security management and increase the activities to be performed by network administrators and security staff. Therefore, there is a need for the increase of automated auditing and intelligent reporting mechanisms for the cyber trust. Intelligent systems are emerging computing systems based on intelligent techniques that support continuous monitoring and controlling plant activities. Intelligence improves an individual’s ability to make better decisions. This paper presents a proposed architecture of an Intelligent System for Information Security Management (ISISM). The objective of this system is to improve security management processes such as monitoring, controlling, and decision making with an effect size that is higher than an expert in security by providing mechanisms to enhance the active construction of knowledge about threats, policies, procedures, and risks. We focus on requirements and design issues for the basic components of the intelligent system. Keywords: information security management, cyber security, intelligent system, architecture, agent-based control. Cyber Security Overview The exponential growth of the Internet, the convergence of Internet and wireless multimedia applications and services pose new security challenges (Miller, 2001). Security is a complex system (Volonino, 2004) and must be considered at all points and for each user. Organizations need a systematic approach for information security management that addresses security consistently at every level. They need systems that support optimal allocation of limited security resources on the basis of predicted risk rather than perceived vulnerabilities. However, the security infrastructure of most organizations came about through necessity rather than planning, a reactive-based approach such as detection of vulnerabilities and applying software updates (Cardoso & Freire, 2005) as opposed to a proactive approach (Gordon, Loeb & Lucyshyn, 2003). On the other hand, cyber security plans call for more specific requirements for computer and network security as well as emphasis on the availability of commercial automated auditing and reporting mechanisms and promotion of products for security assessments and threat management (Chan & Perrig, 2003; Hwang, Tzeng & Tsai, 2003; Leighton, 2004). Besides technical security controls (firewalls, passwords, intrusion detection, disaster recovery plans, etc.), security of an organization includes other Material published as part of this publication, either on-line or in print, is copyrighted by the Informing Science Institute. Permission to make digital or paper copy of part or all of these works for personal or classroom use is granted without fee provided that the copies are not made or distributed for profit or commercial advantage AND that copies 1) bear this notice in full and 2) give the full citation on the first page. It is permissible to abstract these works so long as credit is given. To copy in all other cases or to republish or to post on a server or to redistribute to lists requires specific permission and payment of a fee. Contact Publisher@InformingScience.org to request redistribution permission. Intelligent System for Information Security Management 30 issues that are typically process and people issues such as policies, training, habits, awareness, procedures, and a variety of other less technical and non-technical issues (Heimerl & Voight, 2005). Security education and awareness has been lagging behind the rapid and widespread use of the new digital infrastructure (Tassabehji, 2005). All these factors make security a process which is based on interdisciplinary techniques (Maiwald, 2004; Mena, 2004). The existing challenges of information security management combined with the lack of scientific understanding of organizations’ behaviors call for better computational systems that support effectiveness of using specific information technologies and new approaches based on intelligent techniques and security informatics as means for coordination and information sharing. Intelligent systems emerged as new software systems to support complex applications. In this paper, we propose the architecture for an Intelligent System for Information Security Management (ISISM) which supports the security processes and infrastructure within an organization. Among these components, intelligent systems include intelligent agents that exhibit a high level of autonomy and function successfully in situations with a high level of uncertainty. The system supports knowledge acquisition that is likely to assist the human user, particularly at deeper levels of comprehension and problem solving for the information security assurance domain. The next section of this paper provides a summary of information security management issues and trends, a brief overview of the information security threats, followed by a review of AI techniques for cyber security applications. Then we show the architecture and main components of the intelligent system and include specific design requirements for the intelligent agents. We discuss key issues related to design and technologies by using a Systems Engineering approach. We discuss that systems relying on intelligent agent-based control provide a way of analyzing, designing, and implementing complex software systems. We conclude with a perspective on the future of information security management efficiency and effectiveness by applying a multiparadigm approach. Information Security Management Issues and Trends Information security management is a framework for ensuring the effectiveness of information security controls over information resources. It addresses monitoring and control of security issues related to security policy compliance, technologies, and actions based on decisions made by a human. Information security management objective is to ensure no repudiation, authenticity, confidentiality, integrity, and availability of the information within an organization. Although different security technologies support specific security functions, there are many issues that impact the efficient management of information security. These technologies are not efficient and scalable because they rely on human expertise to periodically analyze the data. Many devices and systems generate hundreds of events and report various problems or symptoms. Also, these devices may all come at different times and from different vendors with different reporting and management capabilities and, perhaps worst of all, different update schedules. The security technologies are not integrated and each technology provides the information in its own format and meaning. These systems operating across versions, product lines, and vendors may provide little or no consistent characterization of events that represent the same symptom. These technologies lack features of aggregation and analysis of the data collected. In security management, analysts must choose how best to select observations, isolating aspects of interest. A static snapshot provided by one security technology (safeguard) does not provide the type of understanding needed for predictive analysis. |
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 28 |
| فرمت فایل | |
| حجم فایل | 541 کیلو بایت |
| تعداد صفحات فایل | 32 |
بخشی از ترجمه فارسی:
مقدمه
ازمیان افزار JavaSymphony جهت ایجاد سیستم توزیع شده استفاده میشود . این ابزار یکی از کاراترین میان افزار های طراحی شده جهت ساخت سیستم های توزیع شده است که برنامه نویس را از پرداختن به بسیاری از جزئیات برنامه نویسی بی نیاز می کند.
در بخش2 به معرفی JavaSymphony پرداخته, امکانات و توانایی هایی که این ابزار جهت ساخت سیستم های توزیع شده و موازی در اختیار برنامه نویس قرار می دهد را معرفی کرده, نحوه استفاده از JavaSymphony برای برنامه نویسی و ساخت سیستم های توزیع شده به زبان جاوا, خصوصیات کلاس ها و توابع مختلف این ابزار و ویژگی های آنها بیان می شود. در بخش3 امکانات پیشرفته تر JavaSymphony که در نسخه های بعدی آن به منظور افزایش کارایی برنامه های ساخته شده توسط این ابزار به آن اضافه شده (مانند تکنیک های همگام سازی پروسه ها, ایجاد اشیا چند نخی, بسط معماری مجازی, تبدیل پویا اشیا و… ) را بررسی خواهیم کرد. در بخش 4 نحوه نصب, راه اندازی و استفاده از JavaSymphony درکامپیوتر های مختلف شبکه برای ایجاد یک زیر ساخت ارتباطی و تعریف معماری فیزیکی سیستم توزیع شده را بررسی خواهیم کرد.2. مفاهیم اصلی JavaSymphony
اغلب سیستمهای توزیع شده یا موازی که به وسیله جاوا پیاده سازی می شوند نیازمند پرداختن برنامه نویس به کارهای جزئی بسیار و خسته کننده هستندکه احتمالا منجر به اشتباه برنامه نویس نیز می شوند. JavaSymphony یک ابزار برنامه نویسی جهت پیاده سازی سیستم های توزیع شده و موازی است که دامنه وسیعی از سیستم های همگن از سیستم هایی با خوشه های کوچک تا سیستم های محاسباتی وسیع را پشتیبانی می کند. این ابزار تماما به زبان جاوا نوشته شده وبا تمام ماشینهای مجازی جاوا (JVM) سازگاری دارد. می توان گفت در مقایسه با دیگر ابزارهای موجود، JavaSymphony امکانات بهتر و قابل انعطاف تری را برای مکان یابی اشیاء و بارگذاری متعادل در اختیار برنامه نویس قرار می دهد.
JavaSymphony در واقع یک کتابخانه از کلاس های جاوا است که به برنامه نویس امکان کنترل Locality موازی سازی و بارگذاری متعادل را در سطح بالایی می دهد, و برنامه نویس را از پرداختن به مسائل جزئی مانند ایجاد و استفاده از Remot-Proxy ها, برنامه نویسی نخ ها, برنامه نویسی سوکت ها و پردازش خطا ها بی نیاز می کند. به کمک این ابزار یک معماری مجازی، ازگره های محاسباتی (کامپیوتر های شبکه ) تعریف می شود. برنامه نویس می تواند با تعریف معماری مجازی دلخواه خود، سلسله مراتبی ازگره های محاسباتی فیزیکی برای سیستم توزیع شده خود بسازد. اشیاء برنامه می توانند به صورت پویا در هر کدام از مؤلفه های این معماری مجازی مستقرشده یا بین آنها حرکت کنند. مجمو عه ای ازگره های سطح بالا جهت کنترل پارامترهای مختلف نرم افزاری و سخت افزاری سیستم در دسترس است . اشیاء می توانند توسط فراخوانی متدهای یکدیگر به سه روش سنکرون، آسنکرون و یک طرفه با یکدیگر ارتباط برقرار کنند. بارگذاری کلاسهای برنامه به صورت دلخواه در گره های مختلف محاسباتی نیز می تواند موجب کاهش حافظه مورد نیاز در کل سیستم توزیع شده شود. بعلاوه می توان اشیاء را به طور دائم در حافظه های جانبی ذخیره, نگهداری و بازیابی کرد.
اغلب پروژهای تحقیقاتی که یک زیر ساخت نرم افزاری برای برنامه های توزیع شده وموازی ارائه می کنند معمولا مانع از کنترل مکان استقرار اشیاء توسط برنامه نویس می شوند. با توجه به اینکه معمولا برنامه نویس اطلاعات بیشتروکامل تری در مورد ساختار سیستم توزیع شده و نحوه توزیع شده گی مطلوب اشیاء بر روی شبکه را دارد از این رو اکثر سیستم های توزیع شده که توزیع اشیاء درگره های محاسباتی و حرکت بین آنها را به صورت اتوماتیک انجام می دهند موجب کاهش کارایی سیستم توزیع شده خواهند شد. زیرا که از اطلاعات مهمی که برنامه نویس در مورد سیستم توزیع شده دارد استفاده نمی کنند و در نتیجه ممکن است ارتباط بین اشیاء توزیع شده در شبکه با یکدیگر زیاد شده و کارایی کل سیستم بسیار پایین بیاید.
2. 1. ویژگی های Java Symphony
JavaSymphony یکی از ابزارهای ساخت سیستمهای توزیع شده و موازی است که یک زیر ساخت مناسب جهت ساخت برنامه های توزیع شده و موازی ارائه می کند. همانطورکه گفته شد این ابزار توسط زبان جاوا پیاده سازی شده وبه صورت کتابخانه ای از کلاسهای جاوا (.class) موجوداست که می توان از این کلاس ها در هر برنامه نوشته شده به زبان جاوا استفاده کرد. برخی از خصوصیات مهم این ابزار عبارتند از:
• امکان تعریف یک معماری مجازی توزیع شده: برنامه نویس می تواند یک معماری مجازی برای سیستم توزیع شده خود تعریف کرده و به این ترتیب سلسله مراتبی از گره های محاسباتی فیزیکی را برای برنامه خود تشکیل دهد. معماری مجازی از مولفه های زیر تشکیل می شود: گره های محاسباتی، خوشه ها که مجموعه ای ازگره های محاسباتی هستند، سایت هاکه مجموعه ای از خوشه ها هستند و دامنه ها که مجموعه ای از سایتها هستند. در هنگام تعریف یک معماری مجازی می توان با استفاده از امکانات تعریف شرایط برای گره های محاسباتی، فقط از منابع محاسباتی مناسب یا دلخواه در شبکه، جهت ساخت سیستم توزیع شده استفاده کرد. (بعنوان مثال استفاده از کامپیوترهای بیکار در شبکه) معماری های مجازی چندگانه نیز قابل تعریف هستند که می توانند مولفه های خود را به اشتراک بگذارند.
• دسترسی به پارامترهای سیستم : JavaSymphony مجموعه ای از API های سطح بالا برای کنترل بسیاری از پارامترهای سیستم ارائه می کند از جمله می توان به پارامترهای CPU Load (میزان کار بارگزاری شده به CPU )، idle Times (درصد بیکاری)، میزان حافظه در دسترس، تعداد پروسه ها و نخهای موجود در سیستم, تاخیر شبکه و پهنای شبکه اشاره کرد. این پارامترها می توانند از سیستم زمان اجرای JavaSymphony یا JRS درخواست شده و برای کنترل استقرار اشیاء در مولفه های مختلف معماری توزیع شده, حرکت اشیاء بین مولفه ها و بارگذاری متعادل استفاده شوند.
• استقرار اشیاء در مولفه های محاسباتی بصورت اتوماتیک وکنترل شونده از طرف کاربر: برنامه نویس می تواند ایجاد و استقرار یک شی در یکی از مولفه های معماری مجازی را کنترل کند. استقرار یک شی در یک مولفه می تواند با توجه به مکان اشیا دیگر که با این شی در ارتباط خواهندبود, صورت گیرد. بعنوان مثال ممکن است مجموعه ای از اشیاء که با یکدیگر ارتباط زیادی دارند برروی مولفه هایی از معماری مجازی که نزدیک یکدیگر هستند مستقر شوند. اگر برنامه نویس دقیقا” محل یک شی را جهت اجراء در آن مکان مشخص نکند JRS بصورت اتوماتیک در مورد محل قرارگیری شی در بین گره های محاسباتی فیزیکی تصمیم گیری خواهد کرد.
• حرکت اشیاء بین مولفه های محاسباتی بصورت اتوماتیک و قابل کنترل از طرف کاربر:JavaSymphony از حرکت اشیاء بین گره های محاسباتی بصورت اتوماتیک و یا تحت کنترل کاربر پشتیبانی می کند.
• فراخوانی سنکرون, آسنکرون و یک طرفه متدها: همانطورکه می دانیم تمامی فراخوانی روالهای دور در جاوا بصورت سنکرون انجام می گیرد. علاوه بر این مکانیزم، JavaSymphony دو روش دیگر برای فراخوانی متدهای دور را در اختیار برنامه نویس قرار می دهد: 1- فراخوانی آسنکرون که در این روش یک Handle که برای بررسی آماده بودن نتیجه در آینده استفاده خواهد شد, بعنوان نتیجه فراخوانی روال برگشت داده می شود. 2- فراخوانی یک طرفه : که دراین روش طرف فراخوانی کننده متد، منتظر دریافت هیچ نتیجه ای از فراخوانی متد نمانده، بلکه متد دو را فراخوانی کرده و بدون اینکه بداند اجرای آن کی به اتمام خواهد رسید کارهای خود را دنبال می کند.
• بارگذاری کلاسهای دور بصورت دلخواه : به کمکJavaSymphony بجای آنکه لازم باشد تمام فایلهای حاوی کلاس های برنامه توزیع شده در تمامی گره های محاسباتی ذخیره شوند، این فایل ها می توانند در زمان نیاز در یک گره به آن گره بارگزاری شده و استفاده شوند. این خصوصیت می تواند باعث کاهش کل حافظه مورد نیاز برنامه توزیع شده شود.
بعلاوه JavaSymphony از اشیاء مانا نیز پشتیبانی می کند. یعنی به برنامه نویس اجازه میدهد اشیاء برنامه را در حافظه های جانبی ذخیره کرده و بازیابی کند. این ابزار نیازی به هیچ گونه تغییردر زبان جاوا یا JVM یا کامپایلر جاوا نداشته و بصورت کتابخانه ای از Class ها پیاده سازی شده و قابل استفاده است. JavaSymphony براساس سیستم های مبتنی برAgent ساخته شده و فعلا در حال ارزیابی است.
2. 2. معماری مجازی توزیع شده گی پویا (Dynamic Virtual Distributed Architectures)
JavaSymphony از مکان یابی, بارگذاری متعادل و حرکت اشیاء بین گره های محاسباتی به صورت اتوماتیک پشتیبانی می کند (بدون اینکه برنامه نویس دخالتی داشته باشد) اما تجربه نشان داده که سیستمهای تمام اتوماتیک فعلی معمولا نمی توانند اطلاعات کافی (به اندازه برنامه نویس) در مورد ساختار سیستم توزیع شده, بدست آورندو در نتیجه کارایی ضعیفی را به دنبال دارند.
از این رو درJavaSymphony یک حالت نیمه اتوماتیک برای پیاده سازی و پیکربندی سیستم توزیع شده ارائه شده است. به این صورت که بسیاری از کارهای جزیی و خسته کننده و مسائل سطح پایین برای پیاده سازی سیستمهای توزیع شده (مانند ایجاد و استفاده از پروکسی ها ، برنامه نویسی سوکتها و…) توسط JavaSymphony انجام می شود اما تصمیم گیری های مهم و استراتژیک در مورد ساختار سیستم توزیع توسط برنامه نویس صورت می گیرد. برنامه نویس جهت تعریف ساختار سیستم توزیع شده کارهای زیر را انجام می دهد:
• تعریف یک معماری مجازی توزیع شده با مشخص کردن گره های محاسباتی، خوشه ها، سایتها ودامنه ها: این معماری برای اجرای برنامه کاربردی بصورت توزیع شده برروی شبکه استفاده خواهد شد. برنامه نویس میتواند برخی شرایط سیستمی برای گره های محاسباتی تعریف کند تا تنها کامپیوترهایی در شبکه که حائز آن شرایط هستند (چه نرم افزای و چه سخت افزاری) بعنوان منابع محاسباتی فیزیکی برای معماری تعریف شده, استفاده شوند.
• استقرار داده ها و اشیاء با توجه به ارتباط آنها با داده های دیگربر روی گره ها : بعنوان مثال اشیایی که ارتباط زیادی با هم دارند ممکن است برروی گره های محاسباتی نزدیک به هم و یا حتی برروی یک گره بارگذاری شوند.
• استقرار اشیاء یا داده ها برروی گره های محاسباتی با توجه به شرایط سیستمی آنها : بعنوان مثال استقرار اشیا در گره هایی با کمترین میزان کاری یا بالاترین حافظه در دسترس.
• بارگذاری کدهای مورد نیاز (کد کلاسها) در گره های محاسباتی هنگام نیاز به آنها: با استفاده از این ویژگی نیازی به ذخیره سازی کد تمام کلاسهای برنامه توزیع شده در تمام گره های محاسباتی نبوده و میتوان کد هر کلاس را هنگام نیاز به آن در یک گره خاص به آن بارگذاری کرد.
JavaSymphony مفهومی بنام Dynamic Virtual distributed architectures (که از این به بعد معماری مجازی می نامیم) ارائه می کند, که به برنامه نویس امکان تعریف ساختار شبکه ای از منابع محاسباتی را می دهد. پس از تعریف این ساختار می توان اشیاء مختلف موجود در برنامه را در مولفه های تشکیل دهنده این معماری مستقر کند یا اشیاء موجود درگره های محاسباتی را به گره های دیگر حرکت دهد. همچنین می تواند بین تعداد اشیاء بارگذاری شده در گره های مختلف موازنه ایجاد کند ونیز کدهای لازم را هنگام نیاز به آنها درهر یک ازگره ها بارگذاری کند. هر معماری مجازی در حقیقت دامنه ای است که به سایتها، خوشه ها وگره هایی تقسیم شده است. (شکل 1) در پایین ترین سطح گره هایا گره های محاسباتی قرار دارند که در حقیقت معادل یک منبع محاسباتی فیزیکی مانند PC یا WorkStation میباشند. گره های مختلف می توانند با یکدیگر ترکیب شده و تشکیل یک خوشه را دهند که در حقیقت معادل یک شبکه محلی از چند PC یا WorkStation است سطح بعدی را سایت ها تشکیل می دهند که مجموعه ای از خوشه های متصل به هم مثلا به وسیله یک WAN یا LAN میباشند. در بالاترین سطح سایتها می تواننند با یکدیگر ترکیب شده و تشکیل یک دامنه (domain) را دهند که در حقیقت یک شبکه محاسباتی بزرگ و توزیع شده است. توجه داشته با شید که هرگره متعلق به یک سه تایی یکتای (خوشه- سایت – دامنه) می باشد بطور مشابه هر خوشه یه یک دو تایی یکتای (سایت -دامنه) وهرسایت به یک دامنه خاص تعلق دارد.
شکل 1 . معماری مجازی
معماری مجازی می تواند به صورت پویا ایجاد شده یا تغییر داده شود هرمؤلفه ازیک معماری مجازی( گره ، سایت ، خوشه ، دامنه) توسط مدیری که قابل رویت برای برنامه نویس نبوده و به عنوان بخشی ازJRS پیاده سازی شده، کنترل می شود.
2. 3. مدل برنامه نویسی Java Symphony
در حالت کلی هربرنامه کاربردی که از JavaSymphony استفاده می کند باید ابتدا خود رادر سیستم زمان اجرای JavaSymphony یا(JRS) ثبت یا Register کند. پس از آن می تواند معماری مجازی خود را تعریف کند. اشیاء می توانند هم در گره های محاسباتی محلی و هم درگره های دیگر به صورت دور ایجاد شده وبین گره های شبکه حرکت کنند. برای ارتباط بین اشیاء موجود در سیستم توزیع شده نیز JavaSymphony از سه مدل فراخوانی متدهای دورپشتیبانی می کند ( سنکرون، آسنکرون و یک طرفه). در نهایت برنامه کاربردی قبل از اتمام, خود را از وضعیت ثبت شده در JRS خارج می کند((unregister این کار باعث آزاد شدن منابع JRS و حافظه تخصیص یافته به برنامه خواهد شد.
بخشی از مقاله انگلیسی:
I. Documentation for the API programmer 1.) The Network Agent How to find a virtual architecture in a physical architecture? Look at the following physical architecture like created in the Shell: To create an easier to understand tree you have to remember that a node with level 3 can have children with level 2 and with level 3. So a node with level 3 is also a node with level 2 and a node with level 1. The following picture will show the example above: This representation of the tree is better to understand which virtual architectures can be found in the physically. A virtual architecture is a tree structure with working nodes only at the leafs. Look at the following example of a virtual architecture: This virtual architecture can be found in the physical architecture above, but there are more different solutions and without knowing the constraints of the nodes in the physical architecture the following solutions are possible: V1 = N1; V2 = N2; V3 = N3 V1 = N4; V2 = N5; V3 = N2 V1 = N5; V2 = N1; V3 = N4 … there are many solutions but the following solutions are not possible: V1 = N2; V2 = N3; V3 = N5 … The order of the nodes of the physical architecture is not important to find a virtual architecture. Only the structure to be found is important to exist in the physical architecture. The level of the root elements of the two architectures have not to be the same. The level of the physical architecture has to be higher or equal to the level of the virtual architecture. Remember the following virtual architecture can be found in the physical architecture above to: Solutions are: V1 = N2; V2 = N3; V3 = N5 V1 = N3; V2 = N5; V3 = N2 … 2.) The JavaSymphony Shell JavaSymphony Shell is part of the JavaSymphony system. JS Shell is a graphical user interface designed to support the creation of a physical architecture consisting of connected JS Network Agents. This physical architecture is used by JS Applications to create virtual architectures and run distributed programs on them. If a JS application demands a virtual architecture, it will be mapped to a physical architecture that fulfils the needs of the application (see documentation for network agents for information how this is done). A physical architecture consists of nodes (Network Agents, NA’s). Nodes can be grouped under a cluster; clusters can be grouped under a site and so on (where clusters and sites are normal nodes that additionally have a cluster manager or a site manager. For being expansible, we decided to use level numbers instead of names for the hierarchy, so a node has level one, a cluster level two, a site level three and so on. The maximum level is nine. The following diagram shows a node of level three (a site) with three nodes of level two (clusters), that also have some nodes of level one under them. Remember that there are still eight network agents in this system (every higher level node has still the functionality of a normal node). Starting the JS Shell You can start the JS Shell by executing the batch file run_shell.bat in the programs main directory. This will start up the GUI and enable you to create a physical architecture. If you have already created a physical architecture and stored it in a file (see “Save Configuration”), you can use the JS Shell program to generate this stored architecture without starting the GUI by appending filename as a program argument: run_shell [filename] This will generate the architecture stored in the file, showing all information and errors as console output. The program will stop after generation. The Main Window The main window is divided into two parts. On the right side there is a list of available NA’s that can be added to a physical architecture on the left side. A NA is defined by the computer name (or IP) on witch the NA is running and the port on which the NA is listening ([computer_name]:[port]). At start-up, the default list stored in a file (serverlist.ini) will be loaded and displayed in the list window as well as the configuration stored in the file config.txt will be displayed as a tree in the left part. Of course you can load and store other lists and configuration files (see “Load Configuration”, “Load NA-List”). The List The list displays all NA’s that are currently available (marked with a green tick) as well as some other computers, where no NA is currently running on the specified port (marked with a red cross). NA’s, that are not marked could not be reached yet, they will be marked in a few seconds. You can add NA’s to the list, remove NA’s from the list and load and store lists of NA’s (see “Load NA-List). You can add an NA to the physical architecture on the left side by dragging and dropping it on the desired position in the architecture tree. The Tree The Tree window allows you to design a physical architecture consisting of NA’s. You can drag and drop NA’s in the tree around as well as remove them from the tree by dragging them to the list window. You can also load and store configurations to a file. If the design of your physical architecture is finished, you can create the physical architecture my selecting “Make Configuration” from the menu. Each NA in the tree will be contacted and the physical architecture will be created. The tree in the picture above displays two independent virtual architectures, one with root NA “agnes.par.univie.ac.at” and one with “daphne.par.univie.ac.at”. The node named “Systemroots” is just a dummy tree node and not a real NA. The first one is a NA of level three (agnes) consisting of two NA’s of level two (amanda, claire). The first one (amanda) consists of two NA’s of level one (becky, brooke), the second consists of three NA’s (darlene, dolly, edwin). The root of the second system is a NA of level five (daphne) consisting of one NA of level four (cybill) and another one of level 2 (lisa), and so on.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 19 |
| فرمت فایل | |
| حجم فایل | 2240 کیلو بایت |
| تعداد صفحات فایل | 31 |
بخشی از ترجمه فارسی:
چکیده
رشد پیچیدگی پردازش های مدرن تولید کد موثر مناسب را بصورت افزایشی سخت ساخته است. تولید کد به صورت دستی بسیار زمان صرف کننده می باشد اما آن بارها انتخاب میشوند به طوریکه کد تولید شده بوسیله تکنولوژی کامپایلرهای امروزی بارها اجرای پایین تری نسبت به بهترین کدهای آماده شده دستی دارند. یک نولید از استراتژی تولید کد انجام گرفته شده بوسیله سیستم های شبیه ATLAS,FFTW و SPIRAL که جستجوی تجربی را برای پیدا کردن مقادیر پارامتر از کارایی را استفاده کرده است به طوریکه اندازه تیله و زمانبندی آموزش که تحویل انجام بهینه برای یک ماشین مخصوص می باشد. به هر حال این دیدگاه دارد به تنهایی به طور کامل ثابت میکند در کدهای علمی اجرا به داده ورودی وابسته نیست. در این مقاله ما مطالعه میکنیم تکنیکهای یادگیری ماشین را برای توسعه جستجوی ترتیبی برای تولیدی از روتینهای سورت کردن که اجرا در مشخصات ورودی و معماری از ماشین هدف وابسته است. ما ساختیم در مطالعه قبلی که یک الگوریتم سورت خالص در اغازی از محاسبات مثل تابعی از انحراف معیار انتخاب کنیم. دیدگاهی که بحث میکنیم در این مقاله الگوریتمهای ژنتیک و یک سیستم طبقه بندی با ساختار بصورت سلسله مراتبی ساخته شده الگوریتمهای سورت تلفیقی توانا از تبدیل کردن داده ورودی استفاده میکند. نتایج ما نشان میدهد که الگوریتمهای تولید شده با استفاده از دیدگاه ارائه شده در این مقاله هستند سرع و موثر در گرفتن داخل اکانت اثرات متقابل پیچیده ما بین معماری و مشخصات داده ورودی و کد نتیجه بسیار مهم بهتر از اجراعات سورت مرسوم و کد تولید شده با مطالعه اسان ما اجرا میکند. به ویژه روتینهای تولید شده با دیدگاه ما اجرا میکند بهتر از تمام کتابخانه های تجاری که ما ازمایش کردیم مثل IBM ESSL,INTEL MKL و C++ STL. بهترین الگوریتم ما دارد توانایی تولید ای در معدل 26% و 62% سریعتر از IBM ESSL در یک IBM PAWER 3 و IBM PAWER 4 بترتیب را دارد.
1 مقدمه
اگر چه تکنولوژی کامپایلر فوق العاده در پردازش خودکاراز بهینه سازی برنامه کامل شده است و بیشتر مداخلات انسانی هنوز هست برای تامین کد بسیار سریع لازم شده است. یک دلیل اینکه ناجوری از اجراعات کامپایلر وجود دارد. اینها کامپایلرهای بیهنه عالی برای بعضی پلاتفرمها هستند اما کامپایلرهای موجود برای بعضی پلاتفرمهای دیگر بسیاری خواسته ها را ترک میکنند. دومین دلیل و شاید بسیار مهم این هست که کامپایلرهای مرسوم که فاقد اطلاعات معنایی هستند و بنابراین محدود شده اند به قدرت دگرگونییا تغییر. یک دیدگاه ایجاد شده که دارد ثابت شده بکلی موثر در چیره شدن به هر دوی این محدودیتها استفاده نمودن تولید کننده های کتابخانه میباشد. این سیستمها استفاده معنایی در اطلاعات برای بکار بردن دگرگون سازی در تمام سطوح از تجرید مهیا میسازند. بیشتر تولیدات کتابخانه قدرتمند نیستند فقط بهینه ساز برنامه همان سیستمهای طراحی الگوریتم هستند.
ATLAS[21],PHiPAC[2],FFTW[7],SPIRAL[23] در طول بهترین تولید کننده های کتابخانه دانسته شده میباشند. ATLAS ,PHiPAC تولید میکنند روتینهای جبری خطی را و پردازش بهینه را در پیاده سازی از ضرب ماتریس در ماتریس فوکس میکنند. در مدت نصب مقادیر پارامتر از یک پیاده سازی ضرب یک ماتریس بطوریکه اندازه تیله و مقداری از حلقه باز شده که تحویل میدهد بهترین انجام معین کننده هویت استفاده جستجوی تجربی. این جستجو پردازش میشود با تولید کردن ورژنهای گوناگون از ضرب ماتریسی که تنها اختلاف دارند در مقدار پارامتر که هست شروع به جستجو. در تقریب جستجوی گسترده هست استفاده شده برای پیدا کردن بهترین مقادیر پارامتر. دو سیستم دیگر اشاره دارند روی SPIRAL,FFTW تولید میکنند کتابخانه های پردازش کننده تنها را. فضای جستجو در SPIRAL,FFTW هست همچنین بزرگتر برای جستجوی گسترده برای ممکن شدن. بنابراین این سیستمها جستجو میکنند با استفاده هیوریستیک مثل برنامه نویسی داینامیک [7,12] یا الگوریتمهای ژنتیک [19].
در این مقاله ما مرور میکنیم مسئله از تولید کردن روتینهای سورت سرعت بالا را. یک تفاوت ما بین سورت کردن و پیاده سازی الگوریتم پیاده سازی شده بوسیله بوسیله تولیدات کتابخانه ای فقط اشاره کرده هست این اجرا از الگوریتمها انها انجام ابزار هست به طور کامل تعیین شده بوسیله مشخصاتی از ماشین هدف و اندازه ای از داده ورودی اما نیست بوسیله دیگر مشخصات از داده ورودی. به هر حال در حالتی از سورت اجرا همچنین وابسته است در دیگر فاکتورهای مثل توزیع داده برای سورت شدن. در حقیقت بحث پایین سورت مرج چند راهی را اجرا میکند بسیار خوب در بعضی کلاسهایی ازمجموعه های داده ورودی که radix سورت اجرا میکند بطور غیر کافی در این مجموعه. برای دیگر کلاسهای مجموعه داده ما رعایت میکنیم موقعیت معکوس را. بنابراین دیدگاه تولید کننده های امروزی هست مفید برای بهینه سازی مقادیر پارامتر از الگوریتمهای سورت اما نیست برای انتخاب بهترین الگوریتم برای گرفتن ورودی. برای تبدیل به مشخصات از مجموعه ورودی در [14] ما استفاده کردیم توزیع ای از داده ورودی برای انتخاب الگوریتم سورت. اگر چه این دیدگاه هست ثابت شده که بکلی موثر است اجرای اخر هست محدود شده با اجرایی از الگوریتمهای سورت مثل سورت مرج چند راهی وسورت سریع و سورت radix هستند انتخاب شده در [14] که میتواند انتخاب شده باشد در زمان اجرا.
در این مقاله ما ادامه میدهیم و عمومیت میدهیم به دیدگاه سادهترمان[14] . تولید کتابخانه جدید ما تولید میکند اجرایی از الگوریتمهای سورت مرکب رادر فرمی از یک سلسله مراتبی از سورتهای اولیه که مخصوص شکل نهایی توسعه شده در چهره سلسله مرتبی از ماشین هدف و مشخصات داده ورودی. درک مستقیم باقی کار این است که الگوریتمهای سورت مختلف اجرا میکنند به صورت متفاوت توسعه دادن را در مشخصات ای از هر بخش و مثل یک نتیجه و الگوریتم سورت بهینه می بایستی باشد ترکیبی از این الگوریتمهای سورت مختلف. گذشته از این سورتهای اولیه تولید کردند کد شامل انتخاب اولیه که به صورت داینامیک انتخاب میکند مخلوط الگوریتم مثل یک تابع از مشخصات ای از داده در هر بخش را. در مدت زمان نصب دیدگاه کتابخانه جدید ما جستجو میکند برای تابعی که نگاشت میکند مشخصات ای از ورودی را برای بهترین الگوریتمهای سورت با استفاده از الگوریتمهای ژنتیک [3,8,16,22]. الگوریتمهای ژنتیک استفاده شده اند برای جستجو برای اختصاص دادن فرمول در SPIRAL[19] و برای بهینه سازی کامپایلر رسمی [4,6,20].
نتایج ما نشان میدهد که دیدگاهمان هست بسیار موثر. بهترین الگوریتم ما داریم تولید شده هست در معدل 36% سریعتر از بهترین روتین سورت خالص و شروع با 45% سریعتر. روتین سورت ما اجرا میکند یهتر از تمام کتابخانه های تجاری که ما سعی میکنیم شامل IBM ESSL,INTEL MKL و STL از C++. در معدل روتینهای تولید شده 26% و62% سریعتر از IBM ESSL در یک IBM PAWR3 و IBM POWER 4 به ترتیب.
نتیجه از این مقاله سازمان دهی شده مثل زیر. بخش 2 بحث میکند اولیه ای که ما استفاده کردیم برای ساختن الگوریتمهای سورت. بخش 3 مرور میکند چرا ما اتنخاب کردیم الگوریتمهای ژنتیک را برای جستجو و مرور بعضی جزییات از الگوریتم ای که ما انجام دادیم. بخش 4 نشان میدهد نتایج اجرا شده را. بخش 5 خلاصه مطالب چگونگی استفاده الگوریتمهای ژنتیک را برای تولید یک سیستم طبقه بندی برای روتینهای سورت میباشد و سرانجام بخش 6 ارائه میکند نتایجمان را.
2 سورت اولیه
در این بخش ما توضیح میدهیم بلوکهای ساخته شده از الگوریتمهای سورت ترکیبییمان را. این اولییه ها انتخاب شده اند بر مبنای ازمایش با الگوریتمهای سورت مختلف و مطالعه ای از فاکتورهای که اثر میکنند به اجرایشان. یک خلاصه از نتایج این ازمایشات در شکل 1 ارائه شده است که کشیده شده زمان اجرا از سه الگوریتم سورت در برابر انحراف معیار از کلیدهای سورت شده.
نتایج نشان داده شده برای SUN ULTRASPARC III و برای دو اندازه از مجموعه داده 2 میلیون و 16 میلیون. سه الگوریتم هستند: QUICKSORT [10,17] و CACHE-CONSCIOUS RADIX SORT (CC-RADIX)[11] و MULTIWAY MERG SORT[13]. شکل 1 نشان میدهد که برای 2M رکورد بهترین الگوریتم سورت هست QUICKSORT یا CC-RADIX زمانی که برای 16M رکورد MULTIWAY MERGE SORT یا CC-RADIX هستند بهترین االگوریتم. مشخصات ورودی که تعیین شده زمانی که CC-RADIX هست بهترین الگوریتم هست انحراف معیار از رکوردها برای سورت شدن. CC-RADIX هست بهتر زمانی که انحراف معیار از رکوردها هست بالا برای اینکه اگر مقادیر از عناصر در داده ورودی هست متمرکز شده اند گرداگرد بعضی مقادیر ان هست بسیار شبیه به اینکه بیشتر عناصر در بعضی از BUCKET ها باشند . بنابراین بیشتر پارتیشنها سبقت میگیرند برای بکار بردن قبل از BUCKET های مناسب داخل کش و بنابراین بیشتر کش های فاقد هستند موجب شده در مدت پارتیشن بندی. نتایج اجرا در دیگر پلتفرمها نشان میدهد که تمایل عمومی از الگوریتمها هست همیشه یکسان اما نقطه متقاطع اجرا اتفاق می افتد در نقاط مختلف در پلت فرمهای مختلف.
ان میفهماند برای بسیاری سالها که اجرا QUICKSORT میتواند بهبود شود زمانی که ترکیب شده با دیگر الگوریتمها [17]. ما تایید میکنیم به صورت ازمایشی که وقتی پارتیشن هست کوچکتر از یک استانه خوب (که مقدار وابسته است در پلتفرم هدف) ان هست بهترین برای استفاده INSERTION SORT یا ذخیره داده در رجیسترها و سورت بوسیله تعویض مقادیر ما بین ریجسترها [14] به جای ادامه دادن به صورت بازگشتی بکار بردن quicksort. Register sort هست یک الگوریتم کد مستقیم که اجرا میکند مقایسه-و-تعویض از مقادیر سورت شده در رجیسترهای پروسسور [13].
Darlington [5] معرفی کرده ایده ای از سورتهای اولیه و تشخیص merge sort و quicksort مثل دو الگوریتم اولیه. در این مقاله ما جستجو کیکنیم برای یک الگوریتم بهینه بوسیله ساختن الگوریتمهای سورت ترکیبی. ما استفاده کردیم دو نوع از اولیه برای ساختن الگوریتمهای سورت تازه: سورت کردن و انتخاب اولیه. سورتهای اولیه ارائه میکنند یک الگوریتم سورت خالص را که شامال پارتیشن بندی داده است به طوریکه مثل radix sort و merge sort و quicksort. انتخاب اولیه ارائه میکند یک پروسه برای اجرا شدنه در زمان اجرای که به صورت داینامیک تصمیم میگیرد که الگوریتم سورت را برای بکار بردن.
الگوریتمهای سورت ترکیبی مطرح میکنند در این مقاله فرض شده است که داده هست سورت شده در پی در پی حافظه محلی. داده هست به صورت بازگشتی پارتیشن شده بوسیله یکی از 4 متدهای پارتیشن بندی. پارتیشن بندی بازگشتی خاتمه میدهد زمانی که یک الگوریتم سورت شکل گرفت هست بکار میرود در پارتیشن. ما الان توضیح میدهیم 4 پارتیشن بندی اولیه را در زیر بوسیله یک توضیح از دو سورت اولیه شکل گرفته. برای هر اولیه ما همچنین تشخیص میدهیم مقادیر پارامتری که باید باشد جستجو شده با تولیدات کتابخانه.
بخشی از مقاله انگلیسی:
Abstract The growing complexity of modern processors has made the generation of highly efficient code increasingly difficult. Manual code generation is very time consuming, but it is often the only choice since the code generated by today’s compiler technology often has much lower performance than the best hand-tuned codes. A promising code generation strategy, implemented by systems like ATLAS, FFTW, and SPIRAL, uses empirical search to find the parameter values of the implementation, such as the tile size and instruction schedules, that deliver near-optimal performance for a particular machine. However, this approach has only proven successful on scientific codes whose performance does not depend on the input data. In this paper we study machine learning techniques to extend empirical search to the generation of sorting routines, whose performance depends on the input characteristics and the architecture of the target machine. We build on a previous study that selects a ”pure” sorting algorithm at the outset of the computation as a function of the standard deviation. The approach discussed in this paper uses genetic algorithms and a classifier system to build hierarchically-organized hybrid sorting algorithms capable of adapting to the input data. Our results show that such algorithms generated using the approach presented in this paper are quite effective at taking into account the complex interactions between architectural and input data characteristics and that the resulting code performs significantly better than conventional sorting implementations and the code generated by our earlier study. In particular, the routines generated using our approach perform better than all the commercial libraries that we tried including IBM ESSL, INTEL MKL and the C++ STL. The best algorithm we have been able to generate is on the average 26% and 62% faster than the IBM ESSL in an IBM Power 3 and IBM Power 4, respectively. ∗This work was supported in part by the National Science Foundation under grant CCR 01-21401 ITR; by DARPA under contract NBCH30390004; and by gifts from INTEL and IBM. This work is not necessarily representative of the positions or policies of the Army or Government. 1 Introduction Although compiler technology has been extraordinarily successful at automating the process of program optimization, much human intervention is still needed to obtain highquality code. One reason is the unevenness of compiler implementations. There are excellent optimizing compilers for some platforms, but the compilers available for some other platforms leave much to be desired. A second, and perhaps more important, reason is that conventional compilers lack semantic information and, therefore, have limited transformation power. An emerging approach that has proven quite effective in overcoming both of these limitations is to use library generators. These systems make use of semantic information to apply transformations at all levels of abstractions. The most powerful library generators are not just program optimizers, but true algorithm design systems. ATLAS [21], PHiPAC [2], FFTW [7] and SPIRAL [23] are among the best known library generators. ATLAS and PHiPAC generate linear algebra routines and focus the optimization process on the implementation of matrix-matrix multiplication. During the installation, the parameter values of a matrix multiplication implementation, such as tile size and amount of loop unrolling, that deliver the best performance are identified using empirical search. This search proceeds by generating different versions of matrix multiplication that only differ in the parameter value that is being sought. An almost exhaustive search is used to find the best parameter values. The other two systems mentioned above, SPIRAL and FFTW, generate signal processing libraries. The search space in SPIRAL or FFTW is too large for exhaustive search to be possible. Thus, these systems search using heuristics such as dynamic programming [7, 12], or genetic algorithms [19]. In this paper, we explore the problem of generating highquality sorting routines. A difference between sorting and the algorithms implemented by the library generators just mentioned is that the performance of the algorithms they implement is completely determined by the characteristics of the target machine and the size of the input data, but not by other characteristics of the input data. However, in the case of sorting, performance also depends on other factors such as the distribution of the data to be sorted. In fact, as discussed below, multiway merge sort performs very well on some classes of input data sets while radix sort performs 1 Proceedings of the International Symposium on Code Generation and Optimization (CGO’05) 0-7695-2298-X/05 $ 20.00 IEEE poorly on these sets. For other data set classes we observe the reverse situation. Thus, the approach of today’s generators is useful to optimize the parameter values of a sorting algorithm, but not to select the best sorting algorithm for a given input. To adapt to the characteristics of the input set, in [14] we used the distribution of the input data to select a sorting algorithm. Although this approach has proven quite effective, the final performance is limited by the performance of the sorting algorithms – multiway merge sort, quicksort and radix sort are the choices in [14] – that can be selected at run time. In this paper, we extend and generalize our earlier approach [14]. Our new library generator produces implementations of composite sorting algorithms in the form of a hierarchy of sorting primitives whose particular shape ultimately depends on the architectural features of the target machine and the characteristics of the input data. The intuition behind this is that different sorting algorithms perform differently depending on the characteristic of each partition and as a result, the optimal sorting algorithm should be the composition of these different sorting algorithms. Besides the sorting primitives, the generated code contains selection primitives that dynamically select the composite algorithm as a function of the characteristics of the data in each partition. During the installation time, our new library approach searches for the function that maps the characteristics of the input to the best sorting algorithms using genetic algorithms [3, 8, 16, 22]. Genetic algorithms have also been used to search for the appropriate formula in SPIRAL [19] and for traditional compiler optimizations [4, 6, 20].
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 22 |
| فرمت فایل | |
| حجم فایل | 440 کیلو بایت |
| تعداد صفحات فایل | 15 |
بخشی از ترجمه فارسی:
مقدمه
آیا تا به حال تنها به mother board نگاه کردهاید واز خودتان پرسیده اید که چه طور کار میکند؟چطور مهندسین طراح تصمیم گرفتند که تراشه های مورد اطمینان و مولفه ها را کجا قرار دهند؟این مولفه ها و اجزا عجیب چه هستند که در سراسر board جا سازی شده اند؟چرا سازندگان mother board هابا چیزهایی سروکار دارندکه از چندین لایه pcb ساخته شده است؟ امروزه ما نظر خوبی خواهیم داشت به آنچه که دقیقابه طرف فرایندهای طراحیmother board پیش می رود از اولین مراحل طرح و نقشه کشی تا آخرین مرحله تولید. از آنجا ییکه این مبحث میتواند خیلی پیچیده باشد من قصد ندارم که این مراحل اخر چشم پوشی کنم و همچنین قصد ندارم به عمق غیر قابل باور در قسمتهایی که نیازی به انجام ان نیست بروم.بطور اشکار کسی وجود ندارد که اشتیاقی بهCE یا EE داشته باشد و اطلاعات ودانش قبلی هم داشته باشد یا وقتی را کنار بگذارد و یاد بگیرد تعدادی از این بی شمار مبحثئ پیچیده را که من امروز قصد دارم راجع به انها بحث کنم.این فصل بر اساس دو چیز پایه ریزی شده یکی تحقیقات شخصی ممتد وکمکی که از rob bracker گرفته شدخ است (مهندس طراح mother board در Intel corporation ).الان این موضوع تحت سومین بازبینی می باشدکه اطلاعات جدیدی به آن اضافه شده است و همچنین این تغییر و تبدیل ها تاثیری بر mother bord های رایج گذارد. هدف این بحث همچنان ثابت است که شمابه مقدار زیاد تفکر وکاری که در طی فرایند طراحی برای یک mother board پیشرفته صرف شده احترام زیادی خواهید گذاشت.
گروه نقشه کشی
در مراحل اولیهاز فرایند طراحی mother board فرآیندهایی هستند که حذف می شئند زیرا خودشان با طراحی سروکار ندارند بلکه با با مصرف کننده نهایی سروکار دارد که در اخر راه خواسته خواهد شد.به خاطر داشته باشید که طراحی برای تولید کنندگان chipsetها وmother board ها شروع می شود از ماههای خیلی پیش قبل از آنکه انها در بازار خرده فروشان به پایان رسیده وقرار داده شوند.در این زمان تولید کنندگان ارزیابی می کنند که مصرف کنندگان انها چه خواستهای را مبنا قرار می دهند و همچنین چطور یک تولید متمتیز داشته باشند بطوریکه برخلاف بقیه بسته ها متمایزو چشم گیر باشد.
اولین گامهادر فرایند طراحی برای Intel توسط مطالعات گروههای گوناگون و اشخاصی که در در شرکت دنبال جزییات تازه ای از chipset و اشکال تمام شده آنهاهستند. این گروه مسولیت دارند کهنظرات را توسعه دهند و feed back ها را جمع آوری می شود Intel تصمیم می گیرد که کدامیک از این اشکال خواسته می شود که در اینده محور شوندو سپس کار شروع می شود روی تولید نسل جدید chipset هایی که این اشکال را فراهم خواهند کرد. وقتی این تولیدات جدید توسعه یافتند اطلاعات مصرف می شوند روی سازندگانmother board های گوناگون به همراه بعضی منابع برای طراحی وابزاری که آنها نیاز خواهند داشت تا کامل کنند کارشان را به موقع برای به کار گرفتن تولیدات.
طراحی simulation
مراحل آغازین فرایند طراحی یک mother board واقعی شروع می شود بوسیله پیاده کردن چندین simulation پیچیده یا روی سومین بخش نرم افزار ویا روی نرم افزار In-House که این هم به سازندگان بستگی دارد.این simulation ها خیلی اهمیت دارندچرا که آنها جزییات شفاهی دربهره یک مسیر مناسب به طراحانmother board ها می دهندوبه خصوص مهمترینفاکتور هستندبرای گذرگاههای سیستم های گوناگون.اینsimulation هاتعیین می کنند نقاط ابتدایی و انتهایی ردیاب ها را واستفاده می شوند برای بنا نهادن ماکسیمم ومینیمم طول عرض ردیابها و همچنین کمترینفضای مجاز بین ردیاب.این فاکتورها همگی مشکلاتی را هم به دنبال دارند مثل تنزل رتبه signal” ” groundbounce”” “EMI” و غیره…
بر اساس اوراق چاپی طراحی حلقهboard امروزی هدفشان اینست که مقاومتظاهری ردیاب تقریبا 60 اهم بکند.گاهی اوقات بالاتر یا پایین تر بودنآن بستگی دارد به اینکه این trace ردی از کدام اتوبوس است.عرضnormal یک ردیاب که می تواند برای یکی از این اتصالات اتوبوس با سرعت بالا استفاده شود تقریبا100/5 اینچ است.وقتی که یک طراحmother board شروع به کار می کندبا طاحکشیده شده حلقهboard آنها خیلی نزدیک کار می کنند با سازندگان حلقه طراحی شدهboard به خاطر اینکه بهترن وکاملترین ساختار را تعیین کنندیا جمع کنند لایه های گوناگونی را که mother board را درست خواهد کرد.mother board امروزه در ذهن و خیال از چندین لایه متعدد طراحی شده است که هر کدام مسوول وظیفه ای هستند که به آنها القاء شده مثل خبر رساندن- کار یکنواخت- یا توزیع نیرو.هر کدام از این لایه ها بوسیله لایه “prepreg”از یکدیگر جدا شده اند این لایه کمک می کند به تعیین مقاومت “ساکن”trace های علامت دهنده.در زیر شما چند مثال ساده از 4 لایهPCB نصب شده مشاهده خواهید کرد.
همانطوری که در پاراگراف بالا ملاحظه کردیدprepreg در واقع کمک می کند به تعیین مقاومت ساکن trace در لایه های علامت دهنده(یا خبر رسان).مقاومت ظاهری تعیین می شود بوسیله ترکیب فاکتورهایی مثل ERیا دی الکتریک دایمی از prepreg .وارتفاع trace که بالای لایه مسی است که این ارتفاع خودش تعیین می شود بوسیله کلفتی prepreg ی که استفاده شده است.
وقتی که طراحان mother board ها و سازندگان حلقه های چاپ شده boardها تلاش می کنند که بهترین نظم و ترتیب برای لایه ها را پیدا کنند از چیزی بنام field solver استفاده می کنند که اولین راه برای بدست آئردن کاملترین نظم و ترتیب لایه ها برای مقاومت ردیاب تعیین شده ایجاد می کند اگر یک ردیابی که قطع شده غرض مورد نیاز در حدود 7 مایل گفته شود و مقاومت در خواست شده برای آن تقریبا 50 اهم باشد سازندگان حلقه board تلاش خواهند کرد که فرایند تولیدشان را بصورت ایدهال در آورند تا به این در خواست ها پاسخ داده باشند همزمان بالاترین بازده را برای لین مقاومتها بدست بیاورند.
مقاومتهای ظاهری برای traceهای باقی مانده حل می شود بوسیله پارامترهای مخصوص سازندگان حلقهboards که این پارامترها را برای استفاده از mother boardبه کار می برند.حال به جای نیاز به trace به 7 مایل و مقاومت 50 اهم اجازه دهید که ما trace را بخواهیم که مقاومت آن 60 اهم باشد.وقتی که سازندگان حلقهboard بکار می گیرند نرم افزارشان را حلال به آنها خواهد گفت که برای بدست آوردن مقاومت 60 اهمی یک traceبه عرض 5 مایل مورد نیاز است.
اگر شما نگاهی به مناطق اطراف تولید کنندگان socket بیندازید وبه جایی که توده ای از اجزاء الکتریکی برای تامین ولتاژ مورد نیاز هسته بکار گرفته شده اند نگاه کنید متوجه این نکته ظریف خواهید شد که trace هایی با عرضهای متفاوت وجود دارند واین ردیاب ها را می توان طوری تصور کرد که فاصلهشان بطور نامساوی زیاد مس شود .این یک نمونه منم است از اینکه چطور حلال تولید کنندگان حلقه board عرض هر ردیاب را طوری تنظیم می کنند که به مقاومت تعیین شده برسند.
حال اگر این همهء ان چیزهایی است که مورد نیاز است پس همه چیز خیلی آسانتر از آنچه تصور می کردیم خواهد بود.وقتی شما چندین ردیاب نزدیک یکدیگر داشته باشید که بعنوان اتصال کنندگان با سرعت بالا استفاده می شوند برای اتوبوس های سیستم های گوناگون مشکل مسلمی که می تواند ایجاد شود نیاز به اداره کردن آنهاست.اگر شما فقط با یک ردیاب واحد سروکار داشته باشید ردیابی که روی لایه های مسی بکار می رود ملاحظه می شود که مقاومت ردیاب نزدیک اندازه ای است که داده شد و زیاد متفاوت نیست در نتیجه مقاومت ساکن نیز زیاد تغییر نمی کندبه هر حال وقتی شما راجع به چندین ردیاب محکم بسته بندی شدهحرف می زنید تعدادی مشکل پدید می آید .یکی از مشکلات اساسی اینست که شما کارتان را با cross-talk به پایان خواهید رساند.وقتی که cross-talk ایجاد می شود دو چیز تصور می شودکه اتفاق بیفتد.اول:سرعت بالای برندگیرئی یک ردیاب که می تواند متصل کندخودش را به signal یاز ردیاب نزدیکش که این می تواند باعث ایجاد تعریف خرابی در آن signal شودچیزی که مسلما باید از آن اجتناب کرد.دوم:وابستگی به اینکه چطور سیگنال ردیاب عوض می شودتشابه با trace های همسایه شما به پایان خواهید برد با چیزهایی که نامیده می شوند مد زوج:مد فرد:cross talk . هر کدام از اینها می تواند توضیح داده شود خیلی ساده با 3 نمونه از سیستم traceها.
برای فهمیدن اینکه اگر ما یک cross-talk از نوع فرد یا زوج را تجربه کردیم چه کنیم ما نیاز به این داریم که به آنچه که ردیاب وسطی در مقایسه با ردیابهای همسایه انجام می دهدتوجه کنبم.اگر این ردیاب میانی عوض شود از بالاترین به پایین نرین در حالیکه دو ردیاب بیرونی عوض می شوند از پایین ترین به بالاترین.پس شما به یک موقعیتcross-talk از نوع مد فرد رسیده اید .cross-talk از نوع مد زوج هم زمانی پدید می آید که این انقال عینا اتفاق بیفتد در اینجا ردیاب مرکزی این انتقال را امتحان می کند که از پایین به بالا برود در حالیکه ردیاب های همسایه عوض می شوند باز از پایین به بالا.
در پایان cross-talk از نوع مد فرد یا زوج می تواند واقعا روی مقاومت ردیاب تاثیر بگذارد. این ردیاب 60اهمی که شما نیاز داشتید الان یک تغییری در مقاومتش متناسب با ردیاب های همسایه تجربه می کند و این تغییر یافتن خودش حرکت دهنده می باشد و وسیله ای است برای عوض کردن مقاومت ردیاب البته بستگی به ردیاب های همسایه دارد.این جایی است که simulationih ها بار دیگر به نمایش در می آیند.این simulation ها در مطلوبترین فضای ما بین ردیاب های گوناگون و پهنای ردیهب ها بخاطر اینکه با یه نیروی جمع شده برای cross-talk سروکار داردپیدا خواهد شد. این دلیل اساسی است که وقتی شما توجه میکنید که چرا بعضی از ردیابها خیلی دورتر از دیگر ردیابها هستند به دلیل نگه داشتن مقاومت مشخصی که آن ردیاب باید داشته باشد.بی نیاز به گفتن اینکه این یه فرایند خیلی پیچیده و بغرنج می باشد.
بخشی از مقاله انگلیسی:
Have you ever just looked at a motherboard and wondered how it was designed? How did the design engineers decide where to place certain chips, or components? What are these strange components placed all over the board? Why do motherboard manufacturers make a big deal out of multi-layer PCB’s? Today we’ll be taking a good look at what exactly goes into the process of a motherboard’s design, from the planning stages to the finished product. Since this can be a very complex topic, I’m not going to be covering every last step, and I won’t be going into incredible depth in areas that do not require it to be done. Not everyone out there is an aspiring CE or EE and has prior knowledge or the time to set aside and learn some of the more complex topics that I’ll be discussing today. This article is based off of both continuing personal research, and aid from Rob Bruckner, a Senior Motherboard Design Engineer at Intel Corporation. This article is now in it’s third revision as new information has been added, as well as modifications made to reflect upon current motherboards. The goal for the article remains the same, that you’ll leave with a grown respect for the immense amount of thought and work that goes into the design process for a modern motherboard. ..:: Planning Groups ::.. In the infant stages of the motherboard design process, there are processes taken out that do not deal with the design itself, rather they deal with the end user will be wanting down the road. Remember, planning for processors, chipsets, and motherboards begins many months before they’ll ever end up on the retail market. In this time, manufacturers will evaluate hat they feel their consumer base will want, and also how to make a distinctive product that will stand out against the rest of the pack. The first steps in the design process for Intel start out with studies by various groups and individuals within the company detailing new chipset and integrated features. These groups are responsible for developing ideas and gathering feedback from the industry on what exactly it is that the consumers want in future products. Once this information has been gathered, Intel will decide which features it will want to implement in the future, and work then begins on next generation chipsets that will support these features. As these new products are developed, the information is passed on to the various motherboard manufacturers along with some reference designs and tools that they’ll need to accomplish their work in time for the product launch. Motherboards – The Designing Process ..:: Design Simulations ::.. The beginning stages of the actual motherboard design process starts out by running several complex simulations on either third party software, or in-house software depending on the manufacturer. These simulations are very important as they give the motherboard designers an overlay about proper trace routing, an especially important factor for the various system buses. These simulations determine the impendence of the traces and are used to establish the minimum and maximum length and width of the traces, along with the minimum allowable spacing between the traces. These factors all come into play for problems such as signal degradation, ground bounce, EMI, etc. Typically, today’s printed circuit board designs aim for a trace impedance of roughly 60 Ohms, sometimes higher or lower depending on which bus the trace is going to be part of. A “normal” trace width that can be used for one of these high speed bus connections is roughly 5/1000 of an inch. When a motherboard designer starts work with the printed circuit board design, they’ll work closely with the printed circuit board manufacturer in order to determine the optimal build, or “stack-up” of the various layers that will make up the motherboard. Motherboards today are designed with multiple layers in mind, each being responsible for a given task such as signaling, ground, or power distribution. Each of these layers is separated from each other by a “prepreg” layer which helps in determining the “static” impedance of the signaling traces. Below you’ll find a simple example of a four layer PCB setup.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 17 |
| فرمت فایل | |
| حجم فایل | 314 کیلو بایت |
| تعداد صفحات فایل | 11 |
بخشی از ترجمه فارسی:
قلمرو
تکنولوژی های زبانی تکنولوژی اطلاع رسانی هستند که متخصص پرداختن به پیچیده ترین رسانۀ اطلاع رسانی در جهان ما یعنی: زبان انسانی، هستند بنابراین، این تکنولوژیها نیز اغلب تحت اصطلاح تکنولوژی زبان انسانی قرار می گیرند . زبان انسانی به شکل گفتاری و نوشتاری ظاهر میشود. در حالی که گفتار قدیمی ترین و طبیعی ترین شیوۀ ارتباطات زبانی است، با این حال ،اطلاعات پیچیده و بخش اعظم دانش انسانی در متون نوشتاری نگهداری و منتقل می شود . تکنولوژی های گفتار و متن با استفاده ازاین دو شیوۀ درک اقدام به پردازش و ایجاد زبان می کنند . اما زبان جنبه هایی نیز دارد که در میان گفتار و متن مشترک هستند از قبیل کتب فرهنگ لغت، بخش اعظم دستورزبان ، و معنی جملات . بنابراین ، بخش های بزرگی از تکنولوژی زبانی را نمی توان در زمرۀ تکنولوژی گفتار و متن قرار داد . در میان آنها تکنولوژی هایی هستند که زبان را به دانش متصل می کنند . ما نمی دانیم که چگونه زبان ، دانش و اندیشه در مغز انسان بازنمود می یابند . با این حال ، تکنولوژی های زبان ناگزیربه ایجاد سیستم های بازنمود رسمی که زبان را به مفاهیم و وظایف در دنیای واقعی پیوند می دهند، هستند . این [ تکنولوژی] میانجی و واسطی را به حوزه سریعا در حال رشد تکنولوژی دانش فراهم می کند.
ما دربرقراری ارتباط ، زبان را با دیگر شیوه های ارتباطات و دیگر رسانه های اطلاع رسانی در هم می آمیزیم. گفتار را با حالات دست و سر و صورت ترکیب می کنیم . متون دیجیتال با تصاویر و صداها ترکیب می شوند . حرکات ممکن است حاوی زبان و شکل گفتاری و نوشتاری باشند . بنابراین تکنولوژی گفتار و متن با بسیاری از تکنولوژی های دیگر که پردازش ارتباطات چند مدلی و اسناد چند رسانه ای را تسهیل می کنند، همپوشانی و تعامل دارند.برای آشنایی جامع با این حوزه ، خوانندگان این مقاله رابه
ColeR.A., J.Mariani, H.Uszkoreit, G.Varile, A.Zaenen, V.Zue, A.Zampolli (Eds.) (1997)Survey of the State of the Art in Human Language Technology , Cambridge University Press and Giardini.(http://www.dfki.de/~hansu/HLT-Survey.pdf)
ارجاع می دهیم.
2- کاربرد
اگر چه سیستم های LT موجود از رسیدن به قابلیت انسانی دور هستند ، با این حال کاربرد های احتمالی متعددی دارند. هدف آنهاایجاد محصولات نرم افزاری است که تاحدی دانش زبان انسانی را داشته باشند. قراراست که اینگونه محصولات زندگی مان را تغییر دهند و وجود آنها جهت بهبود تعامل میان انسان با ماشین کاملا ضروری است زیرا مانع اصلی در تعامل میان انسان و کامپیوتر صرفا وجود یک مشکل ارتباطی است . کامپیوترهای امروزی زبانمان را درک نمی کنند اما یادگیری زبان های کامپیوتری دشوار است و به ساختار اندیشه انسانی مربوط نمی شوند . حتی اگر زبانی را که ماشین درک می کند و نیزدامنۀ بحث آن بسیار محدود باشد ، باز هم ، استفاده از زبان انسانی می تواند پذیرش نرم افزار و بهره وری کاربران آن را افزایش دهد.
” تکنولوژی دوستانه” باید گوش دهد و صحبت کندمیانجی های زبان طبیعی کاربر را به برقراری ارتباط با کامپیوتر به زبان فرانسه ، انگلیسی ، آلمانی ، یا دیگر زبانهای انسانی قادر می سازند. برخی از کابردهای چنین میانجی هایی عبارتند از پرس و جوهای پایگاههای داده ای ، بازیابی اطلاعات از متون ، سیستم های موسوم به خبره ، کنترل روباتی. ارتباط با کامپیوترها با استفاده از زبان گفتاری اثر ماندگاری بر محیط کاری خواهد داشت . حوزه های کاملا جدیدی برای کاربرد تکنولوژی اطلاع رسانی باز خواهند شد.
هرچند لازم است که زبان گفتار را با دیگر شیوه های ارتباطی از قبیل اشاره کردن با ماوس یا انگشت ترکیب نمود . اگربتوانیم چنین ارتباط چند مدلی را سرانجام در مدل عمومی موثر تعاون تجسم ببخشیم ، آنگاه در تبدیل ماشین به یک شریک موفق شده ایم . هدف غایی تحقیق دسترسی فراگیر به همۀ انواع تکنولوژی و به ساختار اطلاع رسانی جهانی از طریق تعامل طبیعی است . در یک سناریوی جاه طلبانه اما نه چندان دور از ذهن ، تکنولوژی زبانی میانجی را برای یک هوش فراگیرکه ارائه دهندۀ کمک در سر کار و در بسیاری از وضعیتهای زندگی روزمره است فراهم می آورد.
ماشین ها همچنین می توانند به افراد برای برقراری ارتباط با همدیگر کمک کنند.
تکنولوژی های زبانی همچنین می توانند به افراد کمک کنند تا با همدیگر ارتباط برقرار کنند. مشکلات ارتباطی میان افرادی که زبانهای مادری متفاوت دارند. در مقایسه با مشکلات میان موجودات بشری و ماشین ها از قدمت بیشتری برخوردارند. همیشه یکی ازهدفهای اصلی تکنولوژی زبانی ترجمه کاملا خودکار میان زبانهای انسانی بوده است . دانشمندان از تجربۀ تلخ نتایج گذشته دریافته اند که هنوزهم از رسیدن به هدف جاه طلبانه ترجمۀ متون نامحدود بسیار دورند. با این حال ، آنها توانسته اند سیستم های نرم افزاری را ایجاد کنند که کار مترجمان انسانی را ساده می کنند و بهره وری آنها را بوضوح بهبودمی بخشند . ترجمه های کمتر از تمام خودکار نیز می توانند برای جستجو کنندگان اطلاعات که ناگزیرند در میان مقادیر زیادی متن به زبانهای خارجی اطلاعات موردنیاز خود راجستجو کنند، کمک بزرگی باشند.
جدی ترین گلوگاه تجارت الکترونیک حجم ارتباطات میان موسسات تجاری و مشتریان یا در میان موسسات تجاری می باشد. تکنولوژی زبانی می تواند به مرتب سازی ، تصفیه سازی و مسیر سازی نامه های الکترونیک وارده کمک کند . همچنین می تواند به عامل ارتباطی مشتریان جهت جستجوی اطلاعات و نوشتن پاسخ کمک کند . در مواردی که پرسشها از قبل پاسخ داده شده اند ، تکنولوژی اطلاعات می تواند پاسخ های مناسب سریع تری را بیابد و بطور خودکار به آنها پاسخ دهد .
بخشی از مقاله انگلیسی:
1. Scope Language technologies are information technologies that are specialized for dealing with the most complex information medium in our world: human language. Therefore these technologies are also often subsumed under the term Human Language Technology. Human language occurs in spoken and written form. Whereas speech is the oldest and most natural mode of language communication, complex information and most of human knowledge is maintained and transmitted in written texts. Speech and text technologies process or produce language in these two modes of realization. But language also has aspects that are shared between speech and text such as dictionaries, most of grammar and the meaning of sentences. Thus large parts of language technology cannot be subsumed under speech and text technologies. Among those are technologies that link language to knowledge. We do not know how language, knowledge and thought are represented in the human brain. Nevertheless, language technology had to create formal representation systems that link language to concepts and tasks in the real world. This provides the interface to the fast growing area of knowledge technologies. In our communication we mix language with other modes of communication and other information media. We combine speech with gesture and facial expressions. Digital texts are combined with pictures and sounds. Movies may contain language and spoken and written form. Thus speech and text technologies overlap and interact with many other technologies that facilitate processing of multimodal communication and multimedia documents. For a comprehensive introduction to the field, the reader is referred to: Cole R.A., J. Mariani, H. Uszkoreit, G. Varile, A. Zaenen, V. Zue, A. Zampolli (Eds.) (1997) Survey of the State of the Art in Human Language Technology, Cambridge University Press and Giardini. (http://www.dfki.de/~hansu/HLT-Survey.pdf) speech technologies text technologies knowledge technologies multimedia & multimodality technologies language technologies Hans Uszkoreit – 2 – Language Technology 2. Applications Although existing LT systems are far from achieving human ability, they have numerous possible applications. The goal is to create software products that have some knowledge of human language. Such products are going to change our lives. They are urgently needed for improving human-machine interaction since the main obstacle in the interaction between human and computer is merely a communication problem. Today’s computers do not understand our language but computer languages are difficult to learn and do not correspond to the structure of human thought. Even if the language the machine understands and its domain of discourse are very restricted, the use of human language can increase the acceptance of software and the productivity of its users. Friendly technology should listen and speak Natural language interfaces enable the user to communicate with the computer in French, English, German, or another human language. Some applications of such interfaces are database queries, information retrieval from texts, so-called expert systems, and robot control. Current advances in the recognition of spoken language improve the usability of many types of natural language systems. Communication with computers using spoken language will have a lasting impact upon the work environment; completely new areas of application for information technology will open up. However, spoken language needs to be combined with other modes of communication such as pointing with mouse or finger. If such multimodal communication is finally embedded in an effective general model of cooperation, we have succeeded in turning the machine into a partner. The ultimate goal of research is the omnipresent access to all kinds of technology and to the global information structure by natural interaction. In an ambitious but not too far-fetched scenario, language technology provides the interface to an ambient intelligence providing assistance at work and in many situations of daily life. Machines can also help people communicate with each other Language technologies can also help people communicate with each other. Much older than communication problems between human beings and machines are those between people with different mother tongues. One of the original aims of language technology has always been fully automatic translation between human languages. From bitter experience scientists have realized that they are still far away from achieving the ambitious goal of translating unrestricted texts. Nevertheless, they have been able to create software systems that simplify the work of human translators and clearly improve their productivity. Less than perfect automatic translations can also be of great help to information seekers who have to search through large amounts of texts in foreign languages. The most serious bottleneck for e-commerce is the volume of communication between business and customers or among businesses. Language technology can help to sort, filter and route incoming email. It can also assist the customer relationship agent to look up information and to compose a response. In cases where questions have been answered before, language technology can find appropriate earlier replies and automatically respond. Language is the fabric of the web The rapid growth of the Internet/WWW and the emergence of the information society pose exciting new challenges to language technology. Although the new media combine text, graphics, sound and movies, the whole world of multimedia information can only be structured, indexed and navigated through language. For browsing, navigating, filtering and processing the information on the web, we need software that can get at the contents of documents. Language technology for content management is a necessary precondition for turning the wealth of digital information into collective knowledge. The increasing multilinguality of the web constitutes an additional challenge for language technology. The global web can only be mastered with the help of multilingual tools for indexing and navigating. Systems for crosslingual information and knowledge management will surmount language barriers for e-commerce, education and international cooperation. Hans Uszkoreit – 3 – Language Technology 3. Technologies In the following a selection of the most relevant language technologies will be summarized. By clicking on the names of the technologies, you can access additional information. Speech recognition Spoken language is recognized and transformed in into text as in dictation systems, into commands as in robot control sy
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 25 |
| فرمت فایل | |
| حجم فایل | 470 کیلو بایت |
| تعداد صفحات فایل | 13 |
بخشی از ترجمه فارسی:
SEMoLa (ساده ،کاربرد آسان ، زبان مدلینگ ) بوسیله فرانسسکو دانوسو در رشته کشاورزی و در دانشکده علوم دانشگاه یوداین ایتالیا وبا همکاری تعداد زیادی از محققین پیاده سازی شده است ، یک شبیه ساز که محیط مدلسازی در ساخت مدلهای کامپیوتری برای سیستم های پویاست.نرم افزار مذکور قالب بندی شده بوسیله 3 جزء :
دستورات به مستندات مدل اجازه می دهند برای نشان دادن نتایج شبیه سازی برای اجرای آنالیز های حساس و نا معلوم.مدیریت محیط مدلینگ بوسیله دستوراتی برای ست کردن ، نشان دادن ، پاک کردن متغیرهای محیط مدلینگ ، برای ویرایش سریع فایلهای مدل ، برای ایجاد فایلهایی برای شبیه ساز چند رسانه ای ، برای نشان دادن فایلهای SEMoLa و برای سرعت سنجی جلسه کاری به انجام می رسد.
همچنین دارای یک سیستم Error یابی و یک on-line help گسترده در دسترس ، می باشد. SEMoLa یک شبیه ساز ساده فرا زبان است. کد های مدل شده در SEMoLa ، به زبان های Basic و C++ ترجمه شده اند و سپس بصورت فایلهای اجرائی کامپایل می شوند . کدهای زبان Basic توسط کنسول کامپایلر Basic 1.0 وکد های C++ بوسیله کامپایلر MinGW 2.0.0-3 کامپیل می شوند.
یک مجموعه ای از ابزارها مانند ابزار های شبیه سازی شبکه های عصبی ،ابزار های تجزیه تحلیل بصورت باز گشتی ،ابزارهای چک کردن مدل و دیگر ابزار ها برای گسترش دادن توانائی های SEMoLa تجهیز شده اند و امکان مدلینگ و تجزیه و تحلیل بصورت قدرتمند تر را به کاربر، می دهد.
درصورت نیاز ، فایلهای متغیر خارجی (متغیر های ورودی) نیزتوسط SEMoLa قادر به لود شدن و پردازش هستند . شبیه سازی های چند گانه یا دسته ای ممکن است در ارتباط با یکدیگر اجرا شوند ولی بدین صورت که مقادیر درونی مختلف ، مجموعه پارامتر ها ، متغیر های بیرونی و یا سناریو های رخدادها در نتیجه اجرای آنها بصورت خروجی مشترک ، قابل استفاده باشند . در فاز شبیه سازی برای بدست آوردن آنالیز های حساس مانند پارامترهای اندازه گیری خوشبینانه نیوتن ، و درستی مدل در مقابل داده های مستقل ، از این تکنیک استفاده می شود .
SEMoLa به کاربر اجازه می دهد تا ظاهر سیستم را بیشتر در قالب تصور نشان دهد تا محا سبات در خواستی. این باعث می شود که کد بیشتر قابل خواندن باشد و نیز قابلیت خطا یابی افزایش می یابد.
یک مدل SEMoLa ممکن است بطور مستقیم با استفاده از دستورات ویژه ای ، در خروجی ، جدولهای قابل ارائه ، لیستی از متغیر ها وپارامترها را تولید کند.
این دستورات جهت کامپایل و شبیه سازی ، از دستورات کامپایلر simula که توسط دانوسو در سال 1992 ساخته شده ، برگرفته شده اند.
بخشی از مقاله انگلیسی:
INTRODUCTION
SEMoLa (Simple, Easy to use, MOdelling LAnguage), developed by Francesco Danuso at the Department of Agricultural and Environmental Sciences of the University of Udine (Italy) with many contributions by other researchers, is a simulation and modelling environment to create computer models for dynamic systems. It is logically formed by three components: a) a non-procedural syntax for model coding; b) a command set to create and evaluate computer simulation models; c) a GUI environment to manage the simulation environment. The commands allow to document the model, to display simulation results, to perform sensitivity and uncertainty analysis. The management of the modelling environment is accomplished by commands for set, display and clear the variables of the modelling environment, for quick editing the model files, to create files for multiple simulations, to display SEMoLa files and to log the working session. An error handling system and an extensive on-line help is also available. SEMoLa is a simple simulation meta-language. Model coded in SEMoLa are translated into Basic or C++ code and then compiled into executable files. The Basic code is to be compiled by the Power Basic Console Compiler 1.0 or higher (PowerBasic); the C++ code is to be compiled by MinGW 2.0.0-3 A package of tools like neural network generation, regression analysis, model units checking, has been developed to extend SEMoLa capabilities and offer to the user a more powerful modelling and analysis environment Exogenous variable files (input variables) can be loaded and processed if requested. Multiple simulation runs (batch simulation) may be performed in relation to different initial values, parameter sets, exogenous variables or event scenarios (or combinations). In the simulation phase it is possible to obtain the sensitivity analysis, the parameter calibration (Gauss – Newton optimisation method) and the model validation against independent data. SEMoLa allows the user to represent the system aspects in a conceptual rather than computational order. This makes the code more readable and the errors easier detectable. A SEMoLa model may directly produce presentation tables and lists of variables and parameters by using the specific commands. The commands for compilation and simulation derive from the command simula (Danuso, 1992). FEATURES OF SEMoLa • Non procedural programming language for dynamic models • Generation of stand-alone, self-calibrating model executables • Numerical integration of ordinary differential equations (euler, trapezoidal) • Complete handling of the exogenous (input) variables • Event handling capability (conditional, periodical, scheduled) • Multiple simulations (batch simulations) • Parameter calibration and optimisation (Gauss-Newton); • Multiple calibration • Sensitivity analysis; • Model validation; • Support for simulation experiments • Support for uncertainty analysis and Monte Carlo simulations • Errors checking in compilation and in run-time phases • Model documentation (tables, listings, where used) • Model structuring by sections • Management of the modelling environment • Automatization of procedures with command scripts • Help for language syntax, procedure and commands • Log files for SEMoLa sessions and model runs • Multiple and non-linear regression • Neural networks training and building with easy integration in simulation models • Neural networks available as Basic and C++ source code • Model code editor with specific highlighting • Semantic and formal automatic debugging • Automatic units (dimensional) consistency check • Automatic documentation building for each model, in *.chm format • Simulation experiments and scenario analysis • Random variables generation from multiple distribution (normal and non-normal) • User defined functions generation and management • Fuzzy logic expert system development as user functions • Statistical analysis on observed and simulated data • Observed and simulated data plotting SEMoLA FRAMEWORK SEMoLa is a modelling framework for knowledge integration. It consist of a) a non-procedural syntax for model coding (SEMoLa language); b) a set of commands to perform all tasks in both intaractive and batch (script) mode; c) a GUI environment to manage the simulation environment d) a built-in database management system (SemData) e) a plotting capability (SemPlot, based on Gnuplot) f) a specific editor (SemEdit) A SEMoLa model is a text file in which every row completely describes a system component
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 26 |
| فرمت فایل | |
| حجم فایل | 351 کیلو بایت |
| تعداد صفحات فایل | 10 |
بخشی از ترجمه فارسی مقاله:
نوارگردان های مغناطیسی برای کامپیوترها شبیه به نوار گردان ها در یک سیستم استریو است.روی کامپیوترهاانها می توانندبا نوعی چرخ باز شوند. روث کامپیوترهای بزرگ یا نوعی کاست به طور نمونه استفاده می شود وروی ریز کامپیوترهاوکامپیوترههای متوسط.
در یک استریوموزیک روی نوار ذخیره شده است وامادر یک کامپیوتراطلاعات به صورت بیت ذخیره شده است.سود بزرگ نوارهادر مقایسه با دیسک هاقیمت انها است.نوارها در بابت نسبت به دیسک ها خیلی کم خرج تر هستندعیب نوارهانسبت به دیسک ها دستیابی ترتیبی انهااست وبنابراین انها کندتر از دیسک ها هستند.اگر شما نیاز داریداطلاعات زیادی نزدیک ابتدای یک نوار باشندهد خواندن ونوشتن در اخر نوارواقع می شودوشما باید نوار را برگردانیدبه ترتیب گذرنده روی هم رفته اطلاعات در مابین است.
روش دستیابی برای نوار مغناطیسی در مقابل دیسک انالوگ به کاست استریو در مقابل با صدای دیسک فشرده است شما می توانید تغییر دهیدانتخاب روی یک دیسک فشرده را خیلی سریعتر از روی یک کاست چون روش دستیابی این چنین است چون روش دستیابی کند است.نوارها معمولا برای پشتیبانی یا نگهداری یا ضبط استفاده می شود
به طور نمونه نوارهاظرفیت بین 10تا100 گیگایابت را پشتیبانی می کنند
ماوس که روی یک میز تحریرحرکت داده می شودیک دستگاه ضروری است که یک دسته نگهدارنده ی ساده ی دسته ورودی است.به عنوان مثال ماوس روی میز تحریر متحرک است ان یک پیکان کوچک روی صحنه نمایش کامپیوترداردکه همانند اشاره گر است شما می توانید ماوس رابا اشاره کردن پیکان در انتخاب دستورات یا اشیا روی صحنه نمایش حرکت دهید.
سپس وادار به انتخاب با فشار دادن یک دکمه روی ماوس کنید یک ماوس برای ورود گرافیک مخصوصا با ارزش است.چون اشاره گر می تواند برای کشیدن شکل روی صفحه استفاده میشود.بیشتر شکلها در این کتاب با استفاده از ماوس تولید شده بودند کدبار خوانند کارایی دیگر دستگاه ورودی است.
شاید بیشترین خط کد عمومی کد حاصل کلی – upc – هست که در روی موضوعات مخزن انبار میشوند – شکل1.13- هر رقم در نشانه – upc – هفت عنصر داده ی عمودی است هر عنصر داده می تواند روشن یا تیره شود سلول های فوتو در داخل خوانند خط کد شده ودر حوزه های روشن یا اشکار میشوند وبه انها تبدیل به بیت هایی می شوند.عناصر روشن به عنوان صفر خوانده می شوند وعناصر تیره به عنوان یک خوانده میشود.
در شکل 1.14 نشان می دهد مطابقت بین حوزه روشن وخاموش وبیت هایی از دو رقم سمت راست سمبل – upc در شکل 1.13-استجدول 1.3نشان دهنده مطابقت upc بین ارزش های سیمال وپاییزی است کد های مختلفی برای کاراکتر روی نیمه چپ ورودی نیمه راست انها است
Decimal value Left chars. Right chars.
0 0001101 1110010
1 0011001 1100110
2 0010011 1101100
3 0111101 1000010
4 0100011 1011100
5 0110001 1001110 6 0101111 1010000
7 0111011 1000100
8 0110111 1001000
9 0001011 1110100
یک خط تیره از یک تا چهار حوزه تیره نزدیک ساخته شده است هر رقم وسیمال دارای دو خط تیره و دو فاصله روشن است. کاراکترها روی نیمه راست با یک خط تیره و در اخر با یک فاصله روشن شروع می شود.هر کاراکتر غلط دارای یک عدد فرد از یکهاست.هر کد کاراکتر درست دارای یک عدد زوج از یکها است دستگاهای خروجی اطلاعات را از حافظه کامپیوتر به دنیای بیرون انتقال میدهد . شکل 1.15 مسیری که دادهها از حافظه اصلی به یک دستگاه خروجی برده میشوند نشان میدهد در خروجی جریان داده ها روی خط یکسانی استفاده شده با دستگاه های ورودی است.
بخشی از مقاله انگلیسی:
magnetic tape drives for computers are similar to the tape drives in a stereo system. On computers they can be the open reel type typically used on mainframes or the cassette type typically used on microcomputers and workstations. In the stereo the tape stores music but in a computer the tape stores information as bits the major advantage of tapes compared to disks is cost. Tapes are much less expensive per byte than disks. The disadvantage of tapes is that they are accessed sequentially and therefore they are slower than disks. If you need some information near the beginning of a tape and the read/write head happens to be near the end. You must rewind the tape sequentially passing over all the information in between the access method for magnetic tape versus disks is analogous to stereo cassettes versus audio compact discs. You can change selection on a compact disc much faster than on a cassette because of the access method. Because of their slow access . tapes are usually used for backup or archival storage . typical tape backup capacities are 10 to 100 G byte. The mouse which is moved on a desk is a popular hand-held input device. As the mouse is moved on the desk it gives a small arrow on the computer screen showing the identical motion. You can move the mouse to point the arrow at command selections or objects on the screen .then make the selection by pressing a button on a mouse . a mouse is specially valuable for graphic input because the arrow can be used to draw figures on the screen. Most of the figures in this book were produced using a mouse. The bar code reader is another efficient input device . perhaps the most common bar code is the universal product code(UPC) on grocery store items (figure 1.13) each digit in the UPC symbol has seven vertical data elements. Each data element can be light or dark photocells inside the bar code reader detect the light and dark region and convert them to bits. Light elements are read as zeros and dark elements as ones. Figure 1.14 shows the correspondence between light and dark regions and bits for two digits from the night half of the UPC symbol in figure 1.13. Figure 1.13 The UPC symbol from a package of cereal. The left digits identify the manufacturer. The right five digits its identify the product .The Quaker company code is 30000 , and the 1007 Natural cereal code is 06700 Figure 1.14 Part of the UPC symbol from the Quaker cereal box. Visually, groups of adjacent dark regions look like thick bars Table 1.3 shows the UPC correspondence between decimal and binary values. The code is different for the characters on the left half and those on the right half. A dark bar is composed of from one to four adjacent dark region. E ach decimal digit has two dark bars and two light spaces . the characters on the left half begin with a light space and end with a dark bar. And the characters on the right half begin with a light space. Each left characters has an odd number of ones .and each right characters has an even number of ones. Decimal value Left chars. Right chars.
0 0001101 1110010 1 0011001 1100110 2 0010011 1101100 3 0111101 1000010 4 0100011 1011100 5 0110001 1001110 6 0101111 1010000 7 0111011 1000100 8 0110111 1001000 9 0001011 1110100
Table 1.3 Bit patterns for the decimal digits in the UPC symbol. Output Devices Output devices transmit information from the memory of the computer to the outside world. Figure 1.15 shows the path that the data takes from main memory to an output device. On output data flows on the same bus used by the input devices. • Disk drives • Magnetic tape drives • Screens • Printers Figure1.15 The data path for output. Information flows from main memory on the bus to the output device. Notice that disk and tape drives can serve as both input and output devices. That is similar to a stereo cassette. Which can both record and play back music. When disks and tapes are used for input the process is called reading .when they are used for output the process is called writing.
| دسته بندی | معماری |
| بازدید ها | 23 |
| فرمت فایل | pptx |
| حجم فایل | 1947 کیلو بایت |
| تعداد صفحات فایل | 63 |
مشخصات فایل:
عنوان: پاورپوینت بررسی کاربردهای شیشه در ساختمان
تعداد اسلاید: 63 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقدمه
آشنایی با انواع شیشه ها
شیشه های خم ( Bend Glass )
مواردکاربرد شیشه های خم
شیشه های مات و رنگی
شیشه های با پوشش سطحی
شیشه سکوریت
شیشه اسپندرال
شیشه طلقی
شیشه های ایمنی (Safety Glass )
شیشه های چند لایه ( Laminated Glass )
شیشه های دو جداره ( Insulating Glass )
شیشه های دو جداره و بدون فریم Structural
شیشه های سندبلاست و لبه دار (Sandblast and edge Glass )
شیشه - اسپایدر
شیشه های Low-E
شیشه های سیمی (wired glass)
شیشه های رفلکس
شیشه لمینیت
موارد کاربرد شیشه لمینیت
ویژگیهای شیشه لمینیت
مقایسه انواع شیشه ها از نظرکاهش الودگی صوتی
شیشه های هالوگرافیک- اپتیک
شیشه های باقابلیت تنظیم و روشن وخاموش شدن!
تعدادی دیگر از انواع شیشه های هوشمند
شیشه های فتوولتائیک
تاریخ نانو
فناوری نانو بر روی پنجره
شیشههای خودتمیزشونده
شیشههای خودتمیزشونده آبگریز
شیشههای خودتمیزشونده آبدوست
قسمتی از متن پاورپوینت:
صنعتِ شیشه با قدمتی 4000 ساله امروزه به کمکِ تکنولوژیِ پیشرفته نقش و کاربردِ بسیاری یافته است. تنها واسطه ای که واقعیت را آن گونه که هست مینمایاند شیشه است؛ همین ویژگی است که شیشه را از زمان هایِ دور کارا نموده است. اما زمان گذشت و انسان رنگ و طرح و نقش را نیز با شیشه درآمیخت و از این راه محیطِ خود را به کمک شیشه زیباتر ساخت.
| دسته بندی | معماری |
| بازدید ها | 25 |
| فرمت فایل | pptx |
| حجم فایل | 1207 کیلو بایت |
| تعداد صفحات فایل | 13 |
مشخصات فایل:
عنوان: پاورپوینت بررسی رنگ در معماری
تعداد اسلاید: 13 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقدمه
تناسب و تاسیر گذاری رنگ بر روند طراحی
رنگ در معماری اسلامی
قسمتی از متن پاورپوینت:
از دیدگاه اندیشمندان هنر اسلامی رنگ سفید نماد وجود مطلق و رنگ سیاه که پوشش خانه کعبه است نماد اصلی تعالی و فراوجودیست که خانه کعبه با ان ارتباط دارد.
| دسته بندی | معماری |
| بازدید ها | 13 |
| فرمت فایل | pptx |
| حجم فایل | 2433 کیلو بایت |
| تعداد صفحات فایل | 12 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با حمام ها
تعداد اسلاید: 12 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقدمه
سردر
سربینه (بینه)
گرم خانه
خزینه
قسمتی از متن پاورپوینت:
حمام ها در بین فضاهای شهری از اهمیت زیادی برخوردار بودند و بعد از مسجد و مدرسه و مجموعه بازار ، ازمهمترین بناهای شهری محسوب می شدند. حمام ها می باید در جایی در مسیر گذر آب روان ساخته می شدند و نیز لازم بود که خروجی فاضلاب آنها در نظر گرفته شود.
| دسته بندی | معماری |
| بازدید ها | 12 |
| فرمت فایل | pptx |
| حجم فایل | 3979 کیلو بایت |
| تعداد صفحات فایل | 33 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با نورپردازی و آکوستیک در فضای موزه
تعداد اسلاید: 33 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقدمه
نور در موزه
منابع نور
نور روز و کنترل آن
نور مصنوعی
عملکرد نور
نورپردازی طبیعی (نور روز)
روش های نورپردازی
تأمین نور
استفاده از نور طبیعی در معماری سنتی ایران
نورپردازی محوطه
آکوستیک
عایق بندی ساختمان ها
منابع
قسمتی از متن پاورپوینت:
شدت نورمستقیم خورشید، برحسب شرایـط ده ها یا حتی صدها بار بیشتر از انواع رایج نورهای مصـنوعی اسـت. نـور غیـرمستقیـم خورشیـد حتـی شدیدتر از نورافکن است. به نحوی که نور روز معمولی ممکـن است از 100/000لـوکس تجاوز کنـد. اشعه ماوراء بنفش نورخورشیـد نیز نسبت به منابع مصنوعی بیشتر و به مراتب خطرناکتر است.
| دسته بندی | معماری |
| بازدید ها | 14 |
| فرمت فایل | pptx |
| حجم فایل | 1997 کیلو بایت |
| تعداد صفحات فایل | 45 |
مشخصات فایل:
عنوان: پاورپوینت نماسازی ساختمان
تعداد اسلاید: 45 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
نما چیست؟
انواع نماهای ساختمان
ویژگی های برخی از انواع نما ها
نماهای تماماً شیشه
مشکلات نماهای تماماً شیشه ای
نمای بایرامیکس
نمای سرامیک
نمای آجر
نمای کلاسیک
نمای رومی
نمای سنگ
مشخصات کلی انتخاب سنگ برای مصارف ساختمانی
سنگ طبیعی و سنگ مصنوعی
عوامل موثر بر انتخاب سنگ ساختمانی
سنگهای تزئینی ساختمان
نمای سنگ قلوه
نمای سنگ قیچی
نمای سنگ پلاک
معرفی انواع سنگ های ساختمانی
سنگ آنتیک
روش های نصب نماهای ساختمانی
روش دوغاب کاری پشت محصول
نصب سنگ های مصنوعی نما(آنتیک و بادبر)به روش چسب کاشی
نصب سنگ های دکوراتیو و آنتیک بوسیله پیچ رول پلاک
نمای خشک
مصالح نمای خشک
سرامیک های پرسلان
تولید پرسلان
ویژگیهای پرسلان
Terracotta
مشخصات Terracotta
صفحات HPL (High Pressure Laminate)
ویژگیهای HPL
نمای کامپوزیتی
مزایا و ویژگی های روش نمای خشک
مقایسه مزایا و معایب انواع نماهای ساختمان
برخی از عملکردهای نما و عوامل مؤثر در نما سازی
قسمتی از متن پاورپوینت:
| دسته بندی | معماری |
| بازدید ها | 12 |
| فرمت فایل | pptx |
| حجم فایل | 822 کیلو بایت |
| تعداد صفحات فایل | 43 |
مشخصات فایل:
عنوان: پاورپوینت بررسی مهندسی روشنایی در محیط کار
تعداد اسلاید: 43 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مهندسی روشنایی در ارگونومی
مزایای روشنایی صنعتی رضایت بخش
نور چیست؟
تئوریهای نور
روشنایی، درخشندگی وانعکاس نور
پارامتر های لازم برای اندازه گیری شدت روشنایی و درخشندگی
تباین
خیرگی
رفع خیرگی
انواع سیستم های روشنایی
روشنایی طبیعی
روشنایی مصنوعی
روش های استفاده از منابع روشنایی مصنوعی
سیستم روشنایی مستقیم
روش های استفاده از منابع روشنایی مصنوعی
سیستم روشنایی غیر مستقیم
سیستم روشنایی نور نیمه مستقیم
توزیع روشنایی مصنوعی
روش عمومی
روش موضعی
روش حفاظتی
مقادیر استاندارد برای روشنایی محیط کار
منابع
قسمتی از متن پاورپوینت:
روشنایی خوب امکاناتی از قبیل راحتی وایمنی کارکنان ایمنی بهداشت و پیشرفت کار را برای کارکنان فراهم می آورد تا کار خود را که با امر بینایی ارتباط دارد با دقت ، سرعت و بدون نیاز به کوشش غیر ضروری ببینند و هم چنین محیط کار زیبا وراحت به نظر برسد.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 14 |
| فرمت فایل | |
| حجم فایل | 1003 کیلو بایت |
| تعداد صفحات فایل | 28 |
بخشی از ترجمه فارسی مقاله:
نانوذرات کروی در نقاشی، جوهر، غذا، نمایشگرهای الکترونیــکی، نساجی و پزشکـی کاربرد دارند. کوآن جون فانگ و همکارانش در سال 2014 روشــــی آسان برای آماده ســـازی نانوذرات کروی رنگی پلی(استایرن-اکریلیک) معرفی نمودند. این روش برخلاف روش های قبلی که تهیه نانوذرات کروی رنگی یک شکل با خلوص رنگی بالا و بسیار مشکل بود، به سهولت صورت پذیرفت. در این پژوهش، فرآیند پلیمریزاسیون امولسیونی بدون امولسی فایر برای سنتز نانوذرات کروی کوپلیمری (St- AA) انجام شد، بطوریکه تأثیر سطح فعال حذف شده است. دیسپرســــیون های نانوذرات کروی با سه محلول ماده رنگزای دیسپرس شامل: آبی56، قرمز60 و زرد64 تهیه شد، به این صورت که هرکدام از مواد رنگزا در اثر حرارت به تدریج وارد نانوذرات کروی کوپلیمری (St – AA) شده و در ادامه با افزایش حرارت و ته نشینی، شستشو و خشک کردن، مواد رنگزای تثبیت شده در نانوذرات کروی حاصل شد که روند فرآیند در شکل 2-28 بطور خلاصه نشان داده شده است [19].
باتوجه به تصاویر بدست آمده از میکروسکوپ الکترونی انتقالی، میانگین اندازه نانوذرات کروی بعد از رنگرزی برای هر سه ماده رنگزا، 23 نانومتر افزایش نشان داد [19] اولین بار در سال 2014 لیو و همکارانش با استفاده از روش الکترواسپری برای تهیه E-Ink، سبب نوآوری جدیدی در تهیه جوهر الکتروفورتیک شدند. آن ها با استفاده از روش جت هم محور شکل 2-30، میکروکپسول های جوهر الکتروفورتیک را با توزیع اندازه باریک و میانگین ذرات سفید و قرمز به ترتیب در حدود 100 و 200 میکرومتر تهیه نمودند [62].
نتایج این تحقیق نشان داد که با تنظیم سرعت جریان سیالات پوسته، هسته و گاز که از جمله فاکتورهای مهم در این روش هستند، ضخامت پوسته و اندازه میکروکپسول ها قابل کنترل است. شکل a 2-31 تغییر قطر میکروکپسول و ضخامت پوسته در مقابل سرعت جریان های مختلف 2 تا 10 میلی لیتر در ساعت سیال هسته را نشان می دهد. مشاهده شد که با افزایش سرعت جریان هسته، ضخامت پوسته کاهش و اندازه میکروکپسول افزایش می یابد و همینطور در شکل b 2-31 با افزایش سرعت جریان پوسته، ضخامت پوسته و اندازه افزایش می یابد [62].
در این مطالعه از آزمون متعامد از طریق سه فاکتور و سه سطح آزمایشات متعامد استفاده شد. سه فاکتور سرعت جریان هسته، پوسته و گاز به طور جداگانه در سه سطح مختلف بکار گرفته شدند که مقادیر بهینه در این مطالعه به ترتیب 4، 6 و ml/h 25 و نسبت پوشش 90% گزارش شد. شکل2-32 حرکت ذره باردار پیگمنت قرمز در میدان الکتریکی را نشان می دهد [62].
بخشی از مقاله انگلیسی:
The application of nanospheres is in painting, ink, food, electronic displays, textile and medicine. Kuanjun Fang et al (2014) introduced an easy method for preparation of colored poly (styrene-acrylic) nanospheres. This method was performed easily in 21 contrast to previous methods in which the preparation of uniform colored nanospheres with high color purity was very difficult. In this study, the Emulsifier-Free Emulsion Polymerization was performed to synthesize copolymer spherical nanoparticles (AA-St), so that the effect of the active surface was removed. Spherical nanoparticles dispersions were prepared with three solution disperse dyes including blue 56, red 60 and yellow 64, so that each of the dyes are gradually entered to the copolymer spherical nanoparticles (AA-St) due to the heat and then fixed dyes in the spherical nanoparticles are obtained with increasing heat and sedimentation, washing and dying. The process is shown in the Fig. 2-28 [19]. According to the images obtained by transmission electron microscopy, the average size of spherical nanoparticles after dyeing for each three dye is 23nm [19]. Xiao-Meng Liua et al (2014) caused a new innovation in preparation of electrophoretic ink using electro spray method to preparation of E-ink. They prepared electrophoretic ink microcapsules with the narrow size distribution and the white and red particles mean of about 100 and 200 micrometer using Coaxial Jet of figure 2-30 [62]. The results showed that by adjusting the flow velocity of the shell fluids, nuclear and gas which are the important factors in this method, the microcapsules size and shell thickness can be controlled. Fig. 2-31 a shows the alteration of the microcapsule diameter and shell thickness versus different flows speed of 2 to 10 mL/h. It was observed that by increasing the flow rate of the core, the shell thickness is reduced and the microcapsule size is increased. In the Fig. 2-31 b, with increasing continuous flow rate, the shell thickness and size are increased [62]. 22 In this study, orthogonal test was used through three factors and three orthogonal experiments levels. Three factors of core flow rate, shell and gas are separately used in three different levels. In this study the optimum values are reported 4,6, 25 / ml h and coating Ratio was 90%. Fig. 2-32 shows the charged particle movement of red pigment in the electric field [62].
| دسته بندی | مدیریت |
| بازدید ها | 21 |
| فرمت فایل | pptx |
| حجم فایل | 782 کیلو بایت |
| تعداد صفحات فایل | 42 |
مشخصات فایل:
عنوان: پاورپوینت مقیاس های عملکرد
تعداد اسلاید: 42 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقیاسهای عملکرد
سنجشهای معمول
هفت معیار به منظور ارزیابی مقیاسهای موجود و اقزودن مقیاس های جدید
ویژگیهای استفاده شده در سنجش عملکرد یک فرآیند یا فعالیت
نمایش مقیاسهای عملکرد
هزینه های کیفیت
هنر مدیریت
دسته ها و عناصر هزینه های کیفیت
دسته هزینه پیشگیری
دسته هزینه ارزیابی
دسته هزینه شکست داخلی
دسته هزینه شکست خارجی
جمع آوری و گزارش
طراحی سیستم جمع آوری
مبانی هزینه کیفیت
گزارش هزینه کیفیت
تحلیل
تحلیل روند
تحلیل پارتو
هزینه های بهینه
راهبرد بهبود کیفیت
کاهش هزینه های شکست
پیشگیری از هزینه های کیفیت
کاهش هزینه های ارزیابی
پیاده سازی برنامه هزینه کیفیت
جایزه ملی مالکم بالدریج
چارچوبهای معیارهای جایزه ملی مالکم بالدریج
اساس معیارهای جایزه ملی مالکم بالدریج
ویژگیهای کلیدی معیارهای جایزه ملی مالکم بالدریج
پیوند جایزه ملی مالکم بالدریج با کیفیت و بهره وری
معیارهای جایزه ملی مالکم بالدریج
امتیازدهی جایزه ملی مالکم بالدریج
قسمتی از متن پاورپوینت:
مقیاسهای عملکرد برای دستیابی به یک یا چند هدف از شش هدف زیر به کار برده می شوند:
| دسته بندی | معماری |
| بازدید ها | 12 |
| فرمت فایل | pptx |
| حجم فایل | 1325 کیلو بایت |
| تعداد صفحات فایل | 25 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با ویژگی های معماری ایران در دوره اسلامی
تعداد اسلاید: 25 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مقدمه
عناصر تشکیل دهنده معماری ایران در دوره اسلامی
میانسرا
ایوان
رواق
گنبد
شبستان ستوندار
چهار صفه
حجره
مناره
بادگیر
پله
سردابه
روش های ساخت و تزئین
مصالح ساختمانی مورد استفاده
آجر
گچ
کاشی
خشت
سنگ
چوب
شیشه
قسمتی از متن پاورپوینت:
هر بنای دوره اسلامی چه بنای مذهبی، مانند مسجد و مدرسه و چه غیر مذهبی، مانند کاروانسرا و کاخ از فضاهای گوناگون تشکیل میشود و گاهی نیز ممکن است فضای تازه به صورت الحاقی به بناهای دیگر اضافه شود؛ مثلاً مناره یا منار در مسجد و مدرسه که جزیی از بناست و به طور مجزا هم کاربرد دارد.
| دسته بندی | معماری |
| بازدید ها | 10 |
| فرمت فایل | pptx |
| حجم فایل | 1851 کیلو بایت |
| تعداد صفحات فایل | 25 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با مسجد شیخ لطف الله
تعداد اسلاید: 25 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
تاریخچه مسجد شیخ لطفالله
محراب مسجد شیخ لطفالله
تزئینات کاشیکاری
ویژگیهای مسجد شیخ لطفالله
تصاویری از این مسجد
قسمتی از متن پاورپوینت:
مسجد شیخ لطفالله از شاهکارهای معماری و کاشیکاری قرن یازدهم است و به فرمان شاه عباس اول در مدت 18 سال بنا شده است. سر در معرق مسجد شیخ لطفالله تا پایان سال 1011 ساخته شده و اتمام ساختمان و تزیینات آن در سال 1028 قمری پایان یافت.
| دسته بندی | معماری |
| بازدید ها | 13 |
| فرمت فایل | pptx |
| حجم فایل | 1512 کیلو بایت |
| تعداد صفحات فایل | 35 |
عنوان: پاورپوینت آشنایی با کتابخانه ملی چین
تعداد اسلاید: 35 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان آشنایی با کتابخانه ملی چین می باشد که در حجم 35 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
تاریخچه کتابخانه ملی چین
ساختمان کتابخانه ملی چین
ساختمان جدید کتابخانه ملی چین
بخش های کتابخانه ملی چین
فعالیتها و خدمات
مجموعه ها
نشریات ادواری که بهوسیله کتابخانه منتشر میشوند
منابع
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 10 |
| فرمت فایل | |
| حجم فایل | 2437 کیلو بایت |
| تعداد صفحات فایل | 25 |
بخشی از ترجمه فارسی مقاله:
5-7 کاهش حمله ردیابی
در بخش قبل کاربر رقیب را بررسی کردیم. به هر حال کارفرما یا دارنده داده ها می توانند رقیب باشند چون نرم افزار پروفایل رفتاری آنها داده های حس گر را از ابزار کاربر جمع آوری می کند. اگر نرم افزار مخرب باشد، آنگاه معلوم است که داده های حس گر را به کارفرمایا یا شخص ثالث می فرستد که می تواند بر داده ها نظارت داشته باشد. به هر حال بر طبق الگوریتم پیشنهادی، ضرورتی ندارد داده های حس گر را خارج از ابزار موبایل ارسال کرد.
8- نتایج، محدودیت ها، آثار آتی
در این مقاله، راهبرد کنترل دسترسی مستحکم را مطرح نمودیم که شامل ویژگی های ایجاد شده با ابزاهرای هوشمند جهت ایمنی بخشی به دسترسی سنتی چارچوب کنترل می باشد. در طرح های پیشنهاد صاحب داده ها ویژگی های پویا ابزاره وشمند را با ویژگی های ایستا ا قب تعیین شده در هم می آمیزد. این رویکرد لایه اضافی امنیت را به بالای چارچوب کنترل دسترسی اضافه می کند. نشان دادیم که کارایی های طرح های پیشنهادی قابل قیاس با طرح های سنتیاند و امنیت و انعطاف پذیری بهتری برای شبکه محاسبه موبایل فراهم می سازند.
8-1 محدودیت و کارهای آتی
جمع آوری و پردازش داده های حس گر برای تعیین مقادیر ویژگی های پویا، زمان و پیچیدگی ارتباطات را افزایش می دهد. در حال حاضر فرض می شود این کار به طور آف لاین و به موازات دانلود داده های کدگذاری شده از ابر انجام می شود. ارزیابی این امر برای ابزارهای هوشمند متفاوت در محیط های گوناگون امری بالقوه است. محدودیت دیگر دقت تعداد الگوریتم ها ی موجود برای تعیین رفتار کابر می باشد. گسترش بالقوه می تواند توسع نرم افزاری باشد که داده ها را از سنسورهای هوشمند جمع آوری می کند. توسعه الگوریتم تازه با استفاده از راهبردهای یادگیری ماشینی جهت دسته بندی کاربرها بر اساس رفتار را می توان برای پروفایل کاربر به کار برد. در ادبیات چندین نوع کی پی-کد گذاری مبتنی بر ویژگی وجود دارد که با مدل امنیت یا بهبود پیچیدگی راهبرد کدگذاری سریع و برون سپاری محاسبات جفتی با ابر امنیت را ارتقا می دهند یعنی افزودن ویژگی در بالای این طرح ها پیچیدگی و نیز امنیت را افزایش می دهد.
بخشی از مقاله انگلیسی:
7.5. Mitigate tracking threat In the previous section we considered the user as an adversary. However data owner or employer can also be an adversary since their behavior profiling app collects sensor data from user’s device. If the app is malicious then it is obvious that it will send the sensor data to the employer or third-parties who then can monitor or track the user. However, according to the proposed algorithm it is not necessary to send out the sensor data outside the mobile device since mapping is carried out within user device. Employer should certify or validate the app in order to build a trust among users. Since, it is easy to detect whether apps are behaving maliciously [44] we can expect that the employers will not develop an app which send out the sensor data outside the mobile device.
8. Conclusions, limitations and future works In this paper, we proposed robust access control technique which incorporates attributes generated by smart devices to secure the conventional access control framework. In the proposed schemes, data owner incorporates smart device’s dynamic attributes together with predefined static attributes. This approach adds additional layer of security on top of the security available in conventional access control framework. We showed that the efficiencies of the proposed schemes are comparable to that of the conventional schemes while offering better security and flexibility for mobile computing network.
8.1. Limitations and future works Collecting and processing the sensor data to determine the values for dynamic attributes increase the time or communication complexity. At present it is assumed that this will be done in off-line or in parallel to downloading the encrypted data from the cloud. Evaluating this latency for different smart devices in various environments could be a potential extension. Another limitation is the accuracy or number of algorithms available for detecting a user behavior. Potential extension could be on developing an app which aggregates data from all the smart device sensors to profile the user’s behavior. Multiple physical activities such as the way individuals walk or the way we take out the phone from pocket can be used to profile a user. Developing a novel algorithm using machine learning techniques to classify users based on behavior is important to bridge the gap between theory and practice. There are several variants of KP-ABE in literature [45–47]. These variants either enhance the security by adopting fully secure model or improve the complexity by fast decryption technique and outsourcing the pairing computations to the cloud. Hence repeating the proposed technique, i.e., adding dynamic attributes, on top of these schemes will further improve the complexity as well as the security.
| دسته بندی | معماری |
| بازدید ها | 12 |
| فرمت فایل | pptx |
| حجم فایل | 2646 کیلو بایت |
| تعداد صفحات فایل | 45 |
عنوان: پاورپوینت بیوگرافی دانیل لیبسکیند
تعداد اسلاید: 45 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان بیوگرافی دانیل لیبسکیند می باشد که در حجم 45 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
بیوگرافی
مختصری در مورد لیبسکیند
کارهای مهم لیبسکیند
مروری بر کارهای لیبسکیند
ساختمان بخش الحاقی یهودی به موزه برلین 1999-2001
طرح لیبسکیند برای بازسازی ساختمانهای تجارت جهانی
برج شیشه ای
باغ یادبود گود نشسته
تصاویری از تعدادی از کارهای لیبسکیند
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | معماری |
| بازدید ها | 15 |
| فرمت فایل | pptx |
| حجم فایل | 2677 کیلو بایت |
| تعداد صفحات فایل | 27 |
مشخصات فایل:
عنوان: پاورپوینت اعداد و معماری
تعداد اسلاید: 27 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
رابطه انسان با اعداد
مفاهیم کلی اعداد
عدد یک (1)
عدد دو (2)
عدد سه (3)
مثلث ( 3 ضلعی )
عدد چهار (4)
مربع ( 4ضلعی )
عدد 8 در معماری
مربع و دایره
استفاده از عدد پی در معماری پارسه
عدد طلائی Golden ratio
ساختمان سازمان ملل متحد در نیویورک
نسبت طلایی در ایران
نقش کمی و کیفی اعداد در معماری اسلامی
نقش کمی اعداد در نیارش (مصالح)
قسمتی از متن پاورپوینت:
در معماری اسلامی مربع به دایره تبدیل می شود واین یعنی اینکه از شکلی که ابتدا وانتها و آغاز و پایان دارند به شکلی که نه آغاز و نه پایان نه ابتدا و نه انتها دارد میرسیم.
روش تبدیل مربع به دایره و دایره سازی مربع که به معنای استحاله شکل کره ای آسمان ها به شکل مستطیلی (مربعی) زمین است و بالعکس از عدد 8 شروع شده به 16 تبدیل می شود سپس به 32 و پس از آن در نهایت به دایره تبدیل می شود.
| دسته بندی | معماری |
| بازدید ها | 14 |
| فرمت فایل | pptx |
| حجم فایل | 3446 کیلو بایت |
| تعداد صفحات فایل | 16 |
مشخصات فایل:
عنوان: پاورپوینت آشنایی با خانه آبشار
تعداد اسلاید: 16 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
تاریخچه خانه آبشار
خصوصیت های خانه آبشار
نگاه بوم شناختی
خصوصیات بنا
قسمتی از متن پاورپوینت:
خانه ادوارد-جی- کافمن که به نام خانه آبشار معروف است در سال 1936 در بالای آبشاری در Ohiopyl در پنسیلوانیای آمریکا ساخته شد. این خانه یکی از 17 اثری است که انجمن معماران آمریکا برای حفظ فرهنگ خود برگزیده اند تا با حفظ و نگهداری آن به حفظ فرهنگ خود کمک کنند.
| دسته بندی | معماری |
| بازدید ها | 10 |
| فرمت فایل | pptx |
| حجم فایل | 3237 کیلو بایت |
| تعداد صفحات فایل | 37 |
مشخصات فایل:
عنوان: پاورپوینت بررسی ارگونومی در منازل
تعداد اسلاید: 37 اسلاید
قالب بندی: پاورپوینت
فهرست مطالب:
مسائل مورد بررسی در ارگونومی منازل
طراحی و چیدمان آشپزخانه
طراحی و چیدمان حمام و دستشویی
طراحی و چیدمان اتاق خواب
طراحی و چیدمان هال و پذیرایی
طراحی و چیدمان اتاق کار
قسمتی از متن پاورپوینت:
دیوارهای آشپزخانه باید تا ارتفاع 1.4 متر قابل شستشو باشند. در صورتیکه تا این ارتفاع، دیوارها را سرامیک کرده باشند، شستشوی آنها بسیار ساده خواهد بود. مهمترین قسمت دیوارها که باید قابل شستشو باشند کناره های سطوح کار است.
| دسته بندی | کامپیوتر و IT |
| بازدید ها | 9 |
| فرمت فایل | |
| حجم فایل | 892 کیلو بایت |
| تعداد صفحات فایل | 42 |
بخشی از ترجمه فارسی مقاله:
5.4 تطبیق منابع
دلیل اصلی اضافه نمودن محاسبات ابری از دیدگاه یک کاربر جابجایی از یک مدل CAPEX به OPEX است که این کار به جای خریداری منابع فناوری اطلاعات صورت می گیرد. در این راستا یک کمپانی به کمپانی دیگر برای منابع استفاده شده پول پرداخت خواهد کرد. جنبه مهم این است که کمپانی به مدت طولانی نیازمند تبلیغ منابع اش نخواد بود. امروزه این حالت معمول است زمانی که یک کمپانی منابع خود را در یک شرکت سرمایه گذاری می کند و در نتیجه مقدار منابع توسعه یافته در زمان اوج به حداکثر نخواهد رسید و یک روند منظم را طی می کند. مفهوم کلیدی چهارچوب بحث شده در Zhuand Agrawal (2010) الگوریتم تطبیق پویای منابع است که مبتنی بر فرضیه کنترل است. یک سیاست کنترل هدایت تقویت یادگیری برای تنظیم پارامترها تطبیق داده می شود به طوری که سود برنامه با استفاده از سربار به حداکثر برسد. چنین مدل کنترلی می تواند سریع و با دقت اموزش داده شود. علاوه بر این یک مدل منبع برای نگاشت هر ترکیبی از مقادیر از پارامترهای تطبیقی با ملزوم ساختن منبع صورت می گیرد تا تضمین نماید هزینه از بودجه موجود تجاوز نکند.
Duong et al (2009) یک چهارچوب انعطاف پذیر را برای ارائه منابع پویا و تطبیق در ابرهای IaaS مطرح کردند. هسته این چهارچوب تنظیم الگوریتم های تطبیقی منابع است که بار کاری را با اطلاعات منبع کاربردی ساخته تا تغییرات تصمیات رادر تغییر تقاضای کاربران پوشش دهد.
Senna et al (2011) یک معماری برای مدیریت و تطبیق شبکه های مجازی بر ابر ارائه دادند. زیرساخت آن ها اجازه ساخت شبکه های مجازی مرتبط با اجرای جریان های کاری را داده و از محیط کاربر حفاظت می کند. شبکه های مجازی استفاده شده در اجرای جریان کاری دارای عملکرد نظارت شده اشان توسط مدیری هستند که نقش پیش گیرانه ای در مورد خرابی عملکرد در زمان الزامات را دارد.
انعطاف پذیری تطبیق راه حل های ابر را برای تمامی کاربران صورت می بخشد تا اطمینان دهد ان ها آن چه را که دقیق می خواهند را دریافت کرده اند. بدین وسیله محاسبه ابری نه تنها راه جدیدی از چگونگی اجرای محاسبات را صورت می بخشند بلکه طیفی از مسائل ICT شناخته شده را در مناطق مختلف آموزش و بهداشت و درمان و… حل می کنند.تطبیق منبع میزبان های مجازی باید به طور پویا برای تقاضاهای به روز شده به خوبی برنامه های collocate حل شود تا صرفه جویی در مصرف انرژی صورت پذیرد. Sclater (2011). از مهم تر تراکنش های منبع ، در طول حجم کار است که باید با توجه به عدم تطابق منابع پیشنهادی به حداقل رسانده شود. یک سیستم که می تواند به طور خودکار مقیاس بندی منابع زیرساختی به اشتراک گذاشته را صورت بخشد در Charalambous (2010) انجام شده است. نظارت های مدیر تطبیق و تخصیص خودکار منابع به کاربران از طریقی پویا صورت می گیرد. با این حال این شیوه متمرکز نمی تواند در آینده متناسب با محیط ابری چند ارائه دهنده باشد. زیرا ارائه دهندگان مختلف ممکن نیست بخواهند توسط چنین مدیریت متمرکزی نظارت شوند. درجه مدیریت منابع ، پیوند منابع API و هماهنگی منابع در چندین ابر در روشی بی نقص صورت گرفته و اهداف عملکردی را حفظ می کند که می تواند بسیار شایسته رسیدگی در آینده باشد. همچنین مقیاس بندی پویای LBS و تاثیراتش بر مقیاس بندی کل برنامه در
Vaquero et al (2011) و سرویس مقیاس بندی خودکار آمازون مطرح شده است. هدف نویسندگان در Baldine et al (2009) مدیریت شبکه اساسی به صورت منابع کلاس اولی است که می تواند زمان بندی و تخصیص همکار گونه را با منابع محاسباتی و ذخیره سازی صورت بخشد تا یک شبکه کامل اماده به ساخت را معرفی نماید.
Jung et al (2008) یک شیوه ترکیبی جدید برای رفتاری خودکار پیشنهاد کردند که از مدل های نظریه صف بندی با تکنیک های بهینه سازی استفاده می کند تا رفتار مدل را پیش بینی کرده و به طور خودکار تنظیمات بهینه سیستم را تولید کند. Marshall) 2010 ) مدیریت منابع را اجرا کرده و بر Nimbus toolkit ساخته شدند و به صورت امن و پویا خوشه های فیزیکی را بر ابر ارائه کردند. رابط های مدیریت الاستیک به طور مستقیم با مدیران محلی در ارتبط اند همانند Torque .
Raghavan et al (2009). طراحی و پیاده سازی محدوده نرخ توزیع شده را با همکاری “نر” کلی تجمیع در گوشه های متفاوت مطرح ساخته و سیاست های ترافیک شبکه مبتنی بر ابر را با ان در همکاری قرار داد و همچنان اطمینان داد که جریان های لایه پاسخ ازدحام رفتار جریان گونه ای خواهند داشت اگر به اشتراک گذاشته شوند.
5.4.1 چالش های حل نشده تطبیق منابع
– تقاضا برای استفاده از سرویس های ابر ارائه شده توسط فروشنده چگونه است؟ آیا این امر ثابت است یا به طور گسترده متغیر است؟
– فرکانس استفاده از منابع ابر چیست؟ مکررا تکرار می شود؟ استفاده مکرر در حقیقت مدل پرداخت پس از برداشت را اقتصادی ترمی کند؟ آیا سرویس های سفارشی سازی شده توسط فروشندگان نیازاند؟ فروشندگان ابر سرویس های سفارشی سازی شده را بیشتر ارائه می کنند و به همین ترتیب قیمت کاری آنها جذاب به نظر نمی رسد.
– آیا ماموریت برنامه مهم است؟ یک ماموریت بحرانی آیا نیازمند قدرت SLAs است که نتواند قادر به رفع نیاز ها نباشد؟
– آیا یک مسئله می تواند در قطعه ای برنامه ما رخ دهد که QoE تحت تاثیر انطباق قرار گیرد یا خیر؟
– آیا مسئله اطلاعات یا ما ارائه دهنده سرویس برنامه ما به اشتراک گذاشته خواهد شد اگر برنامه ما نتواند بطور خودکا خود را کنترل کند؟
– آیا می توان تمام جزئیات فعال و غیر فعال را در اتصال و مسیر انتها به انتها و سطوح دامنه ISP نظارت کنیم؟
– می توان تمام اندازه گیری های مربوط به ارائه آفلاین کاربران QoE را تحلیل نمود؟ برای نمونه شناسایی در زمان وقایع غیرعادی تاثیر گذار بر کاربران QoE .
بخشی از مقاله انگلیسی:
5.4. Resource adaptation
The primary reason for adapting cloud computing from a user perspective is to move from the model of capital expenditure (CAPEX) to operational expenditure(OPEX). Instead of buying IT resources like machines, storage devices etc. and employing personnel for operating, maintaining etc., a company pays another company (the provider) for the actual resources used (pay-as-you-go). An important aspect of this is that a company no longer needs to overprovision its IT resources. It is typical today, when a company invests in its own resources, that the amount of resources invested in corresponds to the maximum amount of resources needed at peak times with the result that much of these resources are not needed at all during regular periods. The key conceptual component of framework discussed in Zhu and Agrawal (2010) is a dynamic resource adaptation algorithm, which is based on control theory. A reinforcement learning guided control policy is applied to adjust the adaptive parameters so that application benefit is maximized within the time constraint using modest overhead. Such a control model can be trained fast and accurately. Furthermore, a resource model is proposed to map any given combination of values of adaptive parameters to resource requirements in order to guarantee that the resource cost stays under the budget. Duong et al. (2009) have proposed an extensible framework for dynamic resource provisioning and adaptation in IaaS clouds. The core of this framework is a set of resource adaptation algorithms which utilize workload and resource information to make informed provisioning decisions in light of dynamically changing users demands. Jung et al. (2010) present Mistral, a holistic optimization system that balances power consumption, application performance, and transient power/performance costs due to adaptation actions and decision making in a single unified framework. By doing so, it can dynamically choose from a variety of actions with differing effects in a multiple application, and dynamic workload environment. Calyam et al. (2011) use OnTimeMeasure-enabled performance intelligence to compare utility-driven resource allocation schemes in virtual desktop clouds. The results from the global environment for network innovations(GENI) infrastructure experiments carried out by the authors demonstrated how performance intelligence enables autonomic nature of FI (Future Internet) applications to mitigate the costly resource overprovisioning and user QoE (Quality of Experience) guesswork, which are common in the current Internet. Senna et al. (2011) present an architecture for management and adaptation of virtual networks on clouds. Their infrastructure allows the creation of virtual networks on demand, associated with the execution of workflows, isolating and protecting the user environment. The virtual networks used in workflow execution has its performance monitored by the manager which acts preemptively in the case of performance dropping below stated requirements. Flexibility enables the adaptation of cloud solutions to all users to ensure that they get exactly what they want and need. By that, cloud computing not only introduces a new way of how to perform computations over the Internet, but some observers also observed that it holds the potential to solve a range of ICT (information and communications technology) problems identi- fied within disparate areas such as education, healthcare, climate change, terrorism, economics etc. as per Schubert (2010). Resource adaptation of the virtual hosts should dynamically scale to the updated demands (cloud computing) as well as colocate applications to save on energy consumption (green computing) as per Sclater (2011). Most importantly, resource transitions during workload surges should occur while minimizing the expected loss due to mismatches of the resource predictions and actual workload demands. A system that can automatically scale its share of infrastructure resources is designed in Charalambous (2010). The adaptation manager monitors and autonomically allocates resources to users in a dynamic way. However, this centralized approach cannot fit in the future multiprovider cloud environment, since different providers may not want to be controlled by such a centralized manager. There have been great advances towards automatically managing collections of inter-related and context-dependent VMs (i.e. a service) in a holistic manner by using policies and rules. The degree of resource management, the bonding to the underlying API and coordinating resources spread across several clouds in a seamless manner while maintaining the performance objectives are major concerns that deserve further study. Also, dynamically scaling LBS (location based services) and its effects on whole application scalability are reported in Vaquero et al. (2011) and Amazon auto scaling service. The goal of authors in Baldine et al. (2009) is to manage the network substrate as a first-class resource that can be co-scheduled and co-allocated along with compute and storage resources, to instantiate a complete built-to-order network slice hosting a guest application, service, network experiment, or software environment. The networked cloud hosting substrate can incorporate network resources from multiple transit providers and server hosting or other resources from multiple edge sites (a multi-domain substrate). Jung et al. (2008) propose a novel hybrid approach for enabling autonomic behavior that uses queuing theoretic models along with optimization techniques to predict system behavior and automatically generate optimal system configurations. Marshall et al. (2010) have implemented a resource manager, built on the Nimbus toolkit to dynamically and securely extend existing physical clusters into the cloud. The elastic site manager interfaces directly with local resource managers, such as Torque. Raghavan et al. (2009) present the design and implementation of distributed rate limiters, which work together to enforce a global rate limit across traffic aggregates at multiple sites, enabling the coordinated policing of a cloud-based service network traffic. This abstraction not only enforces a global limit, but also ensures that congestion-responsive transport-layer flows behave as if they traversed a single, shared limiter. Table 10 summarizes some of the resource adaptation schemes. Table 11 lists out the performance metrics of the resource adaptation schemes.
5.4.1. Open challenges in resource adaptation How is the demand for using the cloud services provided by the vendor? Is it mostly constant or widely varying? What is the frequency of usage of cloud resources? Is it highly frequent? Very frequent usage in fact makes less economic sense to go for cloud based pay-as-you-go model. Do we need highly customized services/API (application programming interfaces) to be exposed by the vendor? Cloud vendors would not find it economically attractive to provide highly customized services and hence price for enterprise (users of cloud) might also be not very attractive. Is the application mission critical? A mission critical application would need very stringent SLAs, which cloud vendors could not be able to satisfy as yet. An industry or application with highly stringent compliance requirements might still not find it suitable to consume key services from a vendor due to inherent risks involved. Can a problem occurence in our slice environment that impacts our QoE be identified and notified to our application to adapt and heal? Can problem information also be shared with us and our application service provider if our application cannot automatically heal itself? Can we monitor all the detailed active (e.g., Ping, traceroute, iperf) and passive (e.g., TCP dump, netow, router-interface statistics) measurements at end-to-end hop, link, path and slice levels across multiple federated ISP domains? Can we analyze all the measurements to offline provision adequate resources to deliver satisfactory user QoE, and online i.e., real-time identify anomalous events impacting user QoE?
| دسته بندی | عمران |
| بازدید ها | 17 |
| فرمت فایل | pptx |
| حجم فایل | 832 کیلو بایت |
| تعداد صفحات فایل | 25 |
عنوان: پاورپوینت ویژگیهای فنی مؤثر در انتخاب و بکارگیری مصالح
تعداد اسلاید: 25 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان ویژگیهای فنی مؤثر در انتخاب و بکارگیری مصالح می باشد که در حجم 25 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
مصالح ساختمانی و معماری
مزیت شناخت مصالح برای معماران
دو بخش شناخت مصالح
معیارهای انتخاب مصالح در معماری
مقایسه سختی کانیها
تاثیر آب بر مصالح ساختمانی
تاثیر حرارت بر مصالح ساختمانی
قابلیت جذب و انعکاس نور و صدا
خواص مکانیکی
خواص شیمیایی
نسبت فراوانی عناصر در پوسته جامد زمین
اصلی ترین عناصر طبیعی مورد استفاده در معماری و ساختمان
چگونگی تولید مصالح
تولید مصالح
واکنش مصالح فلزی و غیر فلزی با اکسیژن و آب؛ و ترکیب اسید و باز با یکدیگر
خطر واکنش های شیمیایی بر مصالح مورد استفاده در بنا
ترکیبات شیمیایی که به مصالح ساختمان آسیب می رسانند
تاثیر مصالح کربنات دار ، سولفات دار، سولفور دار، کلرور دار ، نیترات دار بر ساختمان
انواع سفیدکهای ساختمانی
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | عمران |
| بازدید ها | 17 |
| فرمت فایل | ppt |
| حجم فایل | 1774 کیلو بایت |
| تعداد صفحات فایل | 52 |
عنوان: پاورپوینت آشنایی با معماری بیزانس (روم شرقی )
تعداد اسلاید: 52 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان آشنایی با معماری بیزانس (روم شرقی ) می باشد که در حجم 52 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
پیشینه تاریخی
هنر معماری در روم شرقی (بیزانس)
پلان باسیلیکایی
پلانهای مرکزی
کلیسای ایاصوفیه
معماری دوره ی بیزانسی پسین
موزائیک کاری
نمونه هایی از نحوه مسقف کردن بناهای بیزانس
نقاشی بیزانسی
نمونه ای از معماری دوره بیزانس
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | عمران |
| بازدید ها | 18 |
| فرمت فایل | pptx |
| حجم فایل | 4004 کیلو بایت |
| تعداد صفحات فایل | 48 |
عنوان: پاورپوینت آشنایی با مبانی مهندسی زلزله
تعداد اسلاید: 48 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان آشنایی با مبانی مهندسی زلزله می باشد که در حجم 48 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
تحلیل دینامیکی سازه ها در برابر زلزله
انواع ارتعاشات
درجات آزادی
سختی و میرایی
معادله حرکت یک سیستم یک درجه آزادی
ارتعاش آزاد دستگاه های یک درجه آزادی فاقد میرائی
ارتعاش آزاد دستگاه یک درجه آزادی توام با میرائی
سه حالت ضریب میرائی
معادله حرکت سیستم یکدرجه آزادی تحت اثر نیروی کلی با وجود میرائی
تحلیل دینامیکی دستگاه های چند درجه آزادی
تواتر زاویه ای ارتعاش و مودهای وابسته
رابطه تعامد مودها
روش آنالیز مودال جهت تحلیل سازه های چند درجه آزادی
روش طیفی (شبه دینامیکی) تحلیل سازه ها در برابر زلزله
طیف پاسخ دستگاههای خطی
تحلیل سیستم های چند درجه آزادی به روش طیفی
روشهای آماری ترکیب مودی
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | عمران |
| بازدید ها | 14 |
| فرمت فایل | pptx |
| حجم فایل | 1538 کیلو بایت |
| تعداد صفحات فایل | 59 |
عنوان: پاورپوینت مفهوم، مزایا، کاربرد، قابلیت و روشهای اجرای کانتکس
تعداد اسلاید: 59 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان مفهوم، مزایا، کاربرد، قابلیت و روشهای اجرای کانتکس می باشد که در حجم 59 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
مقدمه
مقایسه کانتکس با دیگر مصالح
خیزران
مزایای کانتکس
کاربرد های کانتکس
قابلیت های کانتکس
روش های اجرای کانتکس
تصاویر
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.
| دسته بندی | عمران |
| بازدید ها | 20 |
| فرمت فایل | ppt |
| حجم فایل | 2695 کیلو بایت |
| تعداد صفحات فایل | 35 |
عنوان: پاورپوینت بررسی استفاده از کامپوزیت هایFRP در ساخت، بهسازی و تقویت سازه ها
تعداد اسلاید: 35 اسلاید
فرمت: پاورپوینت
این فایل شامل پاورپوینتی با عنوان بررسی استفاده از کامپوزیت هایFRP در ساخت، بهسازی و تقویت سازه ها می باشد که در حجم 35 اسلاید همراه با تصاویر و توضیحات کامل تهیه شده که می تواند به عنوان ارائه کلاسی مورد استفاده قرار گیرد. بخشهای عمده این فایل شامل موارد زیر می باشد:
مقدمه
کامپوزیت چیست؟
الیاف
رزین
کامپوزیت FRP
شکل های مختلف کامپوزیت FRP درمهندسی عمران
میلگردهای FRP
پوشش های FRP
سیستم های تقویت سازه ها با استفاده از کامپوزیت های FRP
بهسازی سازه های موجود
تعمیر سازه های آسیب دیده
)قابلیت های بالقوه FRP درتقویت و ترمیم سازه ها
مزایای استفاده از ورقه های FRP
بررسی محدودیت های تقویت خمشی تیرهای بتن آرمه با FRP و ارائه ی راه کارهای پیشنهادی
دال های طره ای تقویت شده با FRP
خلاصه و نتیجه گیری
منابع
پاورپوینت تهیه شده بسیار کامل و قابل ویرایش بوده و در تهیه آن کلیه اصول وعلائم نگارشی و چیدمان جمله بندی رعایت شده و قالب آن را نیز به دلخواه می توان تغییر داد.