Мотоцикл не заводится на холодную ПЛОХОЙ ЗАПУСК
Мотоцикл не заводится на холодную И не только — Проблема решена (возможное решение проблемы)
Та проблема что я вам сейчас показываю определяется следующим образом. Достаточно знать что силовые провода не пробивают мимо, компрессия в цилиндрах нормальная, нормальный бенз залит в бак, и акум заряжен, этого достаточно чтобы сразу понять что проблема именно в загрязнении карбика. Всем советую сразу проверить именно насос, на пробои в прокладке, потому что карбюратор не терпит когда в нем мусор скапливается. Удачного ремонта
Поблагодарить вы можете меня по ссылкам ниже, огромное спасибо:
Donationalerts https://www.donationalerts.com/r/vladstor_prod
Банковские реквизиты 5469 1600 2519 8206
WebMoney Z230511773232
Теги: мотоцикл, не заводится, мопед, мото, ремонт, плохо заводится, мотоциклы, не заводится мотоцикл, нет искры, скутер, иж, мотоцикл не заводится, ремонт мотоцикла, питбайк, ремонт скутера, как, motorcycle (automotive class), минск, не, юпитер, не заводится мопед, карбюратор, восход, ява, что, что делать если, альфа, заводится, холодный запуск, и, иж планета 5, запуск, на, плохо заводится на холодную, евгений матвеев, восстановление, дельта, moto, стартер, бензин, эндуро, иж планета, советские мотоциклы, планета, delta, скутер не заводится на холодную, купить скутер, мастерская скутеров, выбор скутера, максим назаров, плохой запуск скутера, андрей скутерец, обзор мотоцикла, ремонт мото, что если, мотоцикл минск, днепр, почему нет сжатия, мото ремонт, почему нет искры, почему не поступает топливо, нет топлива, почему, покатушки, байк, не заводиться китайский мопед, как завести мотоцикл, урал, почему не заводиться двигатель, диагностика мотоцикла, владислав павлович, не заводиться мопед, не заводиться двигатель, как завести, иж юпитер, иж юпитер 5, suzuki gsf, незоводится, улучшения, диагностика мото, куда, бсе, глохнет, ремонт бмв е34 м50 1995 года, restyling yamaha r1, мх, тюнинг, лечения, мотоцикл иж, доработки, методы, компрессия, stels sb 200 заводится легко, stels sb 200, stels sb200, suzuki bandit, bandit, supuki, suzuki bandit 400, stels, pz-30, suzuki gsf 400 bandit, рассказ, 125, технарь, пропадает, в гараже, ремонт bmw e34 m50 1995 года, исчезнувшая, скутер не заводиться со стартера, цпг, подгонка, толкоча, реставрация, проводка, кроссовый, подготовка, первый, с, генератор, замена, снять, настройка, установка, двигатель, свеча, катушка, кольца, запчасти, есть, плохой запуск скутера сутра, как завести скутер, китайский скутер заглох и не заводится, регулировка, уровень, искра есть, свеча мокрая, поплавковая камера, почеу скутер не заводится, как утром завести скутер, не заводится альфа, горячую, искра, причина почему не заводится альфа, искра компрессия есть, нет компрессии в скутере, плохая поршневая, утром скутер не заводиться, видео, scooter (product category), #мотоцикл минск, как должен заводиться мотоцикл минск, #минск, карбюратор к-28б, своими руками, как устранить подсос воздуха, запуск мотоцикла минск, ммвз, настройка мотоцикла минск, #покатушки, мотоцикл минск запуск, #минск валит, ммвз 3. 112.11, иж-49, ремонт иж, искра есть питбайк, питбайк заводится и глохнет, питбайк не заводится, zzr400-2, быстро, пит байк, проверить работу свечи, ремонт иж планета 5, разбор иж, иж планета 4, иж пс, как проверить свечку мт, #мотоциклы ссср, мото ссср, мотор, сцепление, свечи зажигания, болт, ява разгон до 100, от 0 до 100, мототехника проявляет свой характер, мототехника ссср, irbis ttr250, мотоцикла, motodimas, ммвз-3.112, мототехника, ява радует, синяя ява, мотоцикл ява 634, ява отказывается заводиться!!! почему не заводится ява?! мотоцикл ява 634. jawa 350, мотоцикл ява 350, мотоцикл ява, как должен заводиться минск, ява отказывается заводиться, почему не заводится ява, ремонт мотоцикла ява, видео обзор мотоцикла, ремонт ява 634, jawa 350, не заводится ява 634, очень, щюпа, первый выезд, проект, первый запуск, мотоцикл восход, рестайлинг ямахи р1, vehicle (product category), 1500р, погоня дпс, сова, ковровец, 3м, 2м, советские, не заводится скутер, холодно, ижак, ссср, юпитер 5, планета 5, enduro, izh, советский, вилисов иван, китайский скутер, 139qmb, пуск !, иж планета спорт, первый запуск мотоцикла, запуск мотоцикла, кроссовый мотоцикл, x-ti, мотокросс, црф 450, црф 250, титановые клапана, холодную, клапана, без, отрегулировать, ю, (пробег 2450) или, хонда црф, honda crf, восстановление мотоцикла, не заводится с лапки, восход 3м, восход 2м, как завести восход, не заводится восход, зажигание восход, восход нет искры, crf won’t start, восход 3м не заводится, восход не заводится с ножки, зажигание альфа, советский мотоцикл, орион, вшлеме, заведу мотоцикл, машинки, мото будни, сузуки, дтп, мото креш, мотард, китайский мотард, бюджетный китайский мотоцикл, гонки, новый мотоцикл, квадроцикл, на мотоцикле, мото дтп, топ, pilotzx6r, мотобудни, мото приколы, дмитрий гревцев, квадрик, в шлеме, дорога, реакция детей, бюджетный мотоцикл, китайский мотоцикл, s2, jaguar, ягуар, с2, moped, китай, смотреть
Запуск Spark, PySpark первый раз
Купил книгу — попробуй выучить Spark.
После его загрузки и выполнения правильных шагов у меня возникла проблема с загрузкой spark-shell, а также pyspark. Интересно, может ли кто-нибудь указать мне, что мне нужно сделать, чтобы запустить spark-shell или pyspark
Вот что я сделал.
Я создал папку C:\spark и поместил в нее все файлы из Spark tar.
Я также создал c:\hadoop\bin и поместил в папку winutils.exe.
Сделал следующее:
> установить SPARK_HOME=c:\spark > установить HADOOP_HOME=c:\hadoop > установить PATH=%SPARK_HOME%\bin;%PATH% > установить PATH=%HADOOP_HOME%\bin;%PATH% > установить PYTHONPATH=C:\Users\AppData\Local\Continuum\anaconda3
Создал C:\tmp\hive и сделал следующее:
> cd c:\hadoop\bin > winutils.exe chmod -R 777 C:\tmp\hive
также сделал следующее:
> установить PYSPARK_PYTHON=C:\Users\AppData\Local\Continuum\anaconda3\python > установить PYSPARK_DRIVER_PYTHON=C:\Users\AppData\Local\Continuum\anaconda3\ipython
Также QQ, я попытался проверить и подтвердить, что я установил переменную среды SPARK_HOME, выполнив следующие действия.
(Думаю, именно так я это и делаю. Это правильный способ проверить, правильно ли я установил переменную среды?)
>echo %SPARK_HOME%
Я только что вернулся
%SPARK_HOME%
Я также сделал:
>echo %PATH%
Я не видел ни %SPARK_HOME%\bin, ни %HADOOP_HOME%\bin в каталогах, напечатанных на CMD.
Когда я наконец попытался запустить pyspark:
C:\spark\bin>pyspark
Я получил следующее сообщение об ошибке:
Отсутствует исполняемый файл Python 'C:\Users\AppData\Local\Continuum\anaconda3\pyth on», по умолчанию «C:\spark\bin\..» для переменной среды SPARK_HOME. Пожалуйста установить Python или указать правильный исполняемый файл Python в PYSPARK_DRIVER_PYTHON или Переменная среды PYSPARK_PYTHON для безопасного обнаружения SPARK_HOME. «C:\Users\AppData\Local\Continuum\anaconda3\ipython» не распознается как внутренняя или внешняя команда, работающая программа или командный файл.
Когда я попытался запустить spark-shell:
C:\spark\bin>spark-shell
Я получил следующее сообщение об ошибке:
Отсутствует исполняемый файл Python 'C:\Users\AppData\Local\Continuum \ анаконда3 \ пиф on», по умолчанию «C:\spark\bin\. .» для переменной среды SPARK_HOME. Установите Python или укажите правильный исполняемый файл Python в PYSPARK_DRIVER_PYTHO. N или переменная среды PYSPARK_PYTHON для безопасного обнаружения SPARK_HOME. «C:\Users\AppData\Local\Continuum\anaconda3\ipython» не распознается как внутренняя или внешняя команда, работающая программа или командный файл. C:\spark\bin>искровая оболочка Отсутствует исполняемый файл Python 'C:\Users\AppData\Local\Continuum\anaconda3\pyth on», по умолчанию «C:\spark\bin\..» для переменной среды SPARK_HOME. Пожалуйста установите Python или укажите правильный исполняемый файл Python в PYSPARK_DRIVER_PYTHO N или переменная среды PYSPARK_PYTHON для безопасного обнаружения SPARK_HOME. 2018-08-1918:29:01 ОШИБКА Shell: 397 — не удалось найти двоичный файл winutils в Бинарный путь e Hadoop java.io.IOException: не удалось найти исполняемый файл null\bin\winutils.exe в Ха дуп бинарники. в org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:379) в org.apache. hadoop.util.Shell.getWinUtilsPath(Shell.java:394) в org.apache.hadoop.util.Shell.(Shell.java:387) в org.apache.hadoop.util.StringUtils. (StringUtils.java:80) в org.apache.hadoop.security.SecurityUtil.getAuthenticationMethod(Secur ityUtil.java:611) в org.apache.hadoop.security.UserGroupInformation.initialize(UserGroupI информация.java:273) в org.apache.hadoop.security.UserGroupInformation.ensureInitialized (использовать rGroupInformation.java:261) в org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject( UserGroupInformation.java:791) в org.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGrou pInformation.java:761) в org.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGr oupInformation.java:634) на org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils .скала:2467) на org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils .скала:2467) в scala.Option.getOrElse(Option. scala:121) в org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2467) в org.apache.spark.SecurityManager. (SecurityManager.scala:220) в org.apache.spark.deploy.SparkSubmit$.secMgr$lzycompute$1(SparkSubmit. скала: 408) на org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSub mit$$secMgr$1(SparkSubmit.scala:408) на org.apache.spark.deploy.SparkSubmit$$anonfun$doPrepareSubmitEnvironme nt$7.apply(SparkSubmit.scala:416) на org.apache.spark.deploy.SparkSubmit$$anonfun$doPrepareSubmitEnvironme nt$7.apply(SparkSubmit.scala:416) в scala.Option.map(Option.scala:146) в org.apache.spark.deploy.SparkSubmit$.doPrepareSubmitEnvironment(Spark Отправить.scala:415) в org.apache.spark.deploy.SparkSubmit$.prepareSubmitEnvironment(SparkSu bмит.скала:250) в org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:171) в org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:137) на org.apache.spark.deploy.SparkSubmit.main(SparkSubmit. scala) 2018-08-1918:29:01 ПРЕДУПРЕЖДЕНИЕ NativeCodeLoader:62 — невозможно загрузить собственный код Hadoop. библиотека редко для вашей платформы... используя встроенные классы Java, где это применимо Установка уровня журнала по умолчанию на «ПРЕДУПРЕЖДЕНИЕ». Чтобы настроить уровень ведения журнала, используйте sc.setLogLevel(newLevel). Для SparkR используйте setLogLeve л (новый уровень). 2018-08-19 18:29:08 WARN Utils: 66 — Служба «SparkUI» не может привязаться к порту 40 40. Попытка порта 4041. Контекстный веб-интерфейс Spark доступен по адресу http://NJ1-BCTR-10504.usa.fxcorp.prv:4041. Контекст Spark доступен как «sc» (master = local[*], app id = local-1534717748215 ). Сессия Spark доступна как «spark». Добро пожаловать в ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_\ версия 2.3.1 /_/ Использование Scala версии 2.11.8 (Java HotSpot™ 64-разрядная виртуальная машина сервера, Java 1.8.0_181) Введите выражения для их оценки. Введите :help для получения дополнительной информации. скала>
pyspark — приложение Spark не восстанавливается при потере исполнителя
Я запускаю Spark в автономном кластере. Приложение драйвера Python на том же узле, что и главный, и два рабочих узла. Бизнес-логика — это код Python, который запускается исполнителями, созданными на рабочих узлах.
Я оказываюсь в ситуации, когда ничего не происходит, если один из исполнителей умирает. Если я принудительно уничтожу один из внутренних процессов на Worker 0, Master выведет:
16/06/07 16:20:35 ОШИБКА TaskSchedulerImpl: потерян исполнитель 1 на sparkslave0: удаленный клиент RPC отключен. Вероятно, из-за превышения контейнерами пороговых значений или проблем с сетью. Проверьте журналы драйверов на наличие сообщений WARN. 06.16.07, 16:20:35 WARN TaskSetManager: Потеряна задача 2.0 на этапе 0.0 (TID 2, sparkslave0): ExecutorLostFailure (выход исполнителя 1 из-за одной из запущенных задач) Причина: удаленный клиент RPC отключен. Вероятно, из-за превышения контейнерами пороговых значений или проблем с сетью. Проверьте журналы драйверов на наличие сообщений WARN. 06.16.07 16:20:35 ИНФОРМАЦИЯ DAGScheduler: Executor потерян: 1 (эпоха 0) 16/06/07 16:20:35 ИНФОРМАЦИЯ AppClient$ClientEndpoint: Исполнитель обновлен: app-20160607161937-0010/1 теперь EXITED (команда завершилась с кодом 137) 16/06/07 16:20:35 ИНФОРМАЦИЯ SparkDeploySchedulerBackend: приложение-исполнитель-20160607161937-0010/1 удалено: команда завершена с кодом 137
затем, после таймаута:
16/06/07 16:22:35 WARN NettyRpcEndpointRef: Ошибка отправки сообщения [message = RemoveExecutor(1)] за 1 попытку org.apache.spark.rpc.RpcTimeoutException: время ожидания Futures истекло через [120 секунд]. Этот тайм-аут контролируется spark.rpc.askTimeout. в org.apache.spark.rpc.RpcTimeout.org$apache$spark$rpc$RpcTimeout$$createRpcTimeoutException(RpcTimeout.scala:48) в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:63) в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1. applyOrElse(RpcTimeout.scala:59) в scala.runtime.AbstractPartialFunction.apply(AbstractPartialFunction.scala:33) в org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:76) в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:101) в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:77) в org.apache.spark.storage.BlockManagerMaster.tell(BlockManagerMaster.scala:225) в org.apache.spark.storage.BlockManagerMaster.removeExecutor(BlockManagerMaster.scala:40) в org.apache.spark.scheduler.DAGScheduler.handleExecutorLost(DAGScheduler.scala:1321) в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.doOnReceive(DAGScheduler.scala:1628) в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onReceive(DAGScheduler.scala:1599) в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onReceive(DAGScheduler.scala:1588) в org.apache.spark.util.EventLoop$$anon$1.run(EventLoop.scala:48) Вызвано: java.util.concurrent. TimeoutException: время ожидания Futures истекло через [120 секунд] в scala.concurrent.impl.Promise$DefaultPromise.ready(Promise.scala:219) в scala.concurrent.impl.Promise$DefaultPromise.result(Promise.scala:223) at scala.concurrent.Await$$anonfun$result$1.apply(package.scala:107) в scala.concurrent.BlockContext$DefaultBlockContext$.blockOn(BlockContext.scala:53) в scala.concurrent.Await$.result(package.scala:107) в org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:75) ... 9более
Я вижу, что демон Worker создал другого исполнителя, но ничего не происходит. После 3-х попыток вижу
16.06.07 16:26:41 ОШИБКА Входящие: Игнорирование ошибки
org.apache.spark.SparkException: ошибка уведомления конечной точки драйвера автономного планировщика
в org.apache.spark.scheduler.cluster.CoarseGrainedSchedulerBackend.removeExecutor(CoarseGrainedSchedulerBackend.scala:362)
в org.apache.spark.scheduler.cluster.SparkDeploySchedulerBackend. executorRemoved(SparkDeploySchedulerBackend.scala:144)
в org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anonfun$receive$1.applyOrElse(AppClient.scala:186)
на org.apache.spark.rpc.netty.Inbox$$anonfun$process$1.apply$mcV$sp(Inbox.scala:116)
в org.apache.spark.rpc.netty.Inbox.safelyCall(Inbox.scala:204)
в org.apache.spark.rpc.netty.Inbox.process(Inbox.scala:100)
в org.apache.spark.rpc.netty.Dispatcher$MessageLoop.run(Dispatcher.scala:215)
в java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
в java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
на java.lang.Thread.run(Thread.java:745)
Вызвано: org.apache.spark.SparkException: ошибка отправки сообщения [сообщение = RemoveExecutor (1, команда завершена с кодом 137)]
в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:118)
в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:77)
в org.apache.spark. scheduler.cluster.CoarseGrainedSchedulerBackend.removeExecutor(CoarseGrainedSchedulerBackend.scala:359)
... еще 9
Причина: org.apache.spark.rpc.RpcTimeoutException: невозможно получить ответ в течение 120 секунд. Этот тайм-аут контролируется spark.rpc.askTimeout.
в org.apache.spark.rpc.RpcTimeout.org$apache$spark$rpc$RpcTimeout$$createRpcTimeoutException(RpcTimeout.scala:48)
в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:63)
в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:59)
в scala.runtime.AbstractPartialFunction.apply(AbstractPartialFunction.scala:33)
at scala.util.Failure$$anonfun$recover$1.apply(Try.scala:185)
в scala.util.Try$.apply(Try.scala:161)
в scala.util.Failure.recover(Try.scala:185)
в scala.concurrent.Future$$anonfun$recover$1.apply(Future.scala:324)
в scala.concurrent.Future$$anonfun$recover$1.apply(Future.scala:324)
в scala.concurrent.impl. CallbackRunnable.run(Promise.scala:32)
в org.spark-project.guava.util.concurrent.MoreExecutors$SameThreadExecutorService.execute(MoreExecutors.java:293)
в scala.concurrent.impl.ExecutionContextImpl$$anon$1.execute(ExecutionContextImpl.scala:133)
в scala.concurrent.impl.CallbackRunnable.executeWithValue(Promise.scala:40)
в scala.concurrent.impl.Promise$DefaultPromise.tryComplete(Promise.scala:248)
в scala.concurrent.Promise$class.complete(Promise.scala:55)
в scala.concurrent.impl.Promise$DefaultPromise.complete(Promise.scala:153)
в scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)
в scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)
в scala.concurrent.impl.CallbackRunnable.run(Promise.scala:32)
в scala.concurrent.Future$InternalCallbackExecutor$Batch$$anonfun$run$1.processBatch$1(Future.scala:643)
в scala.concurrent.Future$InternalCallbackExecutor$Batch$$anonfun$run$1.apply$mcV$sp(Future.scala:658)
в scala.concurrent. Future$InternalCallbackExecutor$Batch$$anonfun$run$1.apply(Future.scala:635)
в scala.concurrent.Future$InternalCallbackExecutor$Batch$$anonfun$run$1.apply(Future.scala:635)
в scala.concurrent.BlockContext$.withBlockContext(BlockContext.scala:72)
в scala.concurrent.Future$InternalCallbackExecutor$Batch.run(Future.scala:634)
в scala.concurrent.Future$InternalCallbackExecutor$.scala$concurrent$Future$InternalCallbackExecutor$$unbatchedExecute(Future.scala:694)
в scala.concurrent.Future$InternalCallbackExecutor$.execute(Future.scala:685)
в scala.concurrent.impl.CallbackRunnable.executeWithValue(Promise.scala:40)
в scala.concurrent.impl.Promise$DefaultPromise.tryComplete(Promise.scala:248)
в scala.concurrent.Promise$class.tryFailure(Promise.scala:112)
в scala.concurrent.impl.Promise$DefaultPromise.tryFailure(Promise.scala:153)
в org.apache.spark.rpc.netty.NettyRpcEnv$$anon$1.run(NettyRpcEnv.scala:241)
в java.util.concurrent.Executors$RunnableAdapter. call(Executors.java:511)
в java.util.concurrent.FutureTask.run(FutureTask.java:266)
в java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
в java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
... еще 3
Вызвано: java.util.concurrent.TimeoutException: невозможно получить ответ в течение 120 секунд.
в org.apache.spark.rpc.netty.NettyRpcEnv$$anon$1.run(NettyRpcEnv.scala:242)
... еще 7
06.16.07 16:26:41 ОШИБКА DAGSchedulerEventProcessLoop: сбой цикла DAGSchedulerEventProcessLoop; закрытие SparkContext
org.apache.spark.SparkException: ошибка отправки сообщения [message = RemoveExecutor(1)]
в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:118)
в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:77)
в org.apache.spark.storage.BlockManagerMaster.tell(BlockManagerMaster.scala:225)
в org.apache. spark.storage.BlockManagerMaster.removeExecutor(BlockManagerMaster.scala:40)
в org.apache.spark.scheduler.DAGScheduler.handleExecutorLost(DAGScheduler.scala:1321)
в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.doOnReceive(DAGScheduler.scala:1628)
в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onReceive(DAGScheduler.scala:1599)
в org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onReceive(DAGScheduler.scala:1588)
в org.apache.spark.util.EventLoop$$anon$1.run(EventLoop.scala:48)
Причина: org.apache.spark.rpc.RpcTimeoutException: время ожидания фьючерсов истекло через [120 секунд]. Этот тайм-аут контролируется spark.rpc.askTimeout.
в org.apache.spark.rpc.RpcTimeout.org$apache$spark$rpc$RpcTimeout$$createRpcTimeoutException(RpcTimeout.scala:48)
в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:63)
в org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:59)
в scala. runtime.AbstractPartialFunction.apply(AbstractPartialFunction.scala:33)
в org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:76)
в org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:101)
... еще 8
Вызвано: java.util.concurrent.TimeoutException: время ожидания Futures истекло через [120 секунд]
в scala.concurrent.impl.Promise$DefaultPromise.ready(Promise.scala:219)
в scala.concurrent.impl.Promise$DefaultPromise.result(Promise.scala:223)
at scala.concurrent.Await$$anonfun$result$1.apply(package.scala:107)
в scala.concurrent.BlockContext$DefaultBlockContext$.blockOn(BlockContext.scala:53)
в scala.concurrent.Await$.result(package.scala:107)
в org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:75)
... 9более
06.16.07 16:26:41 ИНФОРМАЦИЯ AppClient$ClientEndpoint: добавлен исполнитель: app-20160607161937-0010/2 на worker-20160607145945-192.168.33.100-34250 (192.168.33.100:34250) с 1 ядра
16/06/07 16:26:41 ИНФОРМАЦИЯ SparkDeploySchedulerBackend: предоставлен идентификатор исполнителя app-20160607161937-0010/2 на hostPort 192.