40m QIL Cryo_Lab CTN SUS_Lab TCS_Lab OMC_Lab CRIME_Lab FEA ENG_Labs OptContFac Mariner WBEEShop
  40m Log, Page 16 of 166  Not logged in ELOG logo
Entry  Thu Mar 28 23:29:00 2019, Koji, Update, SUS, Suspension PD whitening and I/F boards modified for susaux replacement IMG_7474.JPGD000210_backplane.pdfScreenshot_from_2019-03-28_23-28-23.png
Now the sus PD whitening bards are ready to move the back
plane connectoresto
the lower row and to plug the acromag interface
Entry  Tue Mar 26 18:35:06 2019, Jon, Update, Upgrade, Modbus IOC is running on c1susaux2 
Thanks to new info from Johannes, I was able to finish setting up the modbus IOC on c1susaux2.
It turns out the 17 Acromags draw ~1.9 A, which is way more than I had expected. Hence the reason I had suspected a short. Adding a second DC
supply in parallel solves the problem. There is no issue with the wiring.
Entry  Mon Mar 25 10:21:05 2019, Jon, Update, Upgrade, c1susaux upgrade plan IMG_3136.jpgIMG_3138.jpgIMG_3137.jpg
Now that the Acromag upgrade of c1vac is complete, the next system to be upgraded will be c1susaux. We chose c1susaux because it is one
of the highest-priority systems awaiting upgrade, and because Johannes has already partially assembled its Acromag replacement (see photos below).
I've assessed the partially-assembled Acromag chassis and the mostly-set-up host computer and propose we do the following to complete the system.
    Reply  Tue Mar 26 04:25:13 2019, Johannes, Update, Upgrade, c1susaux upgrade plan 



Quote:



Main TODO items


Debug issue with Acromag DC power wiring
Complete
wiring from chassis feedthroughs to Acromag terminals, following this
Entry  Wed Mar 20 19:26:25 2019, Jon, Update, VAC, Protection against AC power loss IMG_3146.jpg
Today I implemented protection of the vac system against extended power losses. Previously, the vac controls system (both old and new) could not communicate
with the APC Smart-UPS 2200 providing backup power. This was not an issue for short glitches, but for extended outages the system had no way of knowing
it was running on dwindling reserve power. An intelligent system should sense the outage and put the IFO into a controlled shutdown, before the batteries
    Reply  Thu Mar 21 21:50:31 2019, rana, Update, VAC, Protection against AC power loss 
agreed - we need all pumps on UPS for their safety and also so that we can spin them down safely. Can you and Chub please find a suitable UPS?




Quote:



However, I discovered that TP1---the pump that might be most damaged by a sudden power failure---is not on the
Entry  Thu Dec 20 21:29:41 2018, Jon, Omnistructure, Upgrade, Vacuum Controls Switchover Completed 40m_vacuum_acromag_channels.pdf
[Jon, Chub, Koji, Gautam]

Summary

Today we carried out the first pumpdown with the new vacuum controls system in place. It performed well. The only problem encountered
was with software interlocks spuriously closing valves as the Pirani gauges crossed 1E-4 torr. At that point their readback changes from a number to "L
    Reply  Fri Dec 21 11:13:13 2018, gautam, Omnistructure, VAC, N2 line valved off VacGauges.pngScreenshot_from_2018-12-21_13-02-06.png
Per the discussion yesterday, I valved off the N2 line in the drill press
room at 11 am PST today morning so as to avoid any accidental software induced gate-valve actuation during the holidays. The line
pressure is steadily dropping...
       Reply  Fri Dec 21 12:57:10 2018, Koji, Omnistructure, VAC, N2 line valved off 
Independent question: Are all the turbo forelines vented automatically? We manually did it for the main roughing line.

 
          Reply  Thu Jan 3 15:08:37 2019, gautam, Omnistructure, VAC, Vac status unknown Screenshot_from_2019-01-03_15-19-51.pngScreenshot_from_2019-01-03_15-14-14.png997B13A9-CAAF-409C-A6C2-00414D30A141.jpeg
Larry W came by the 40m, and reported that there was a campus-wide power glitch (he was here to check if our networking infrastructure was affected).
I thought I'd check the status of the vacuum.


Attachment #1 is a screenshot of the Vac overview MEDM screen. Clearly something
             Reply  Fri Jan 4 17:43:24 2019, gautam, Update, CDS, Timing issues 
[J Hanks (remote), koji, gautam]

Summary:

The problem stems from the way GPS timing signals are handled by the FEs and FB. We effected a partial fix:
                Reply  Wed Jan 9 11:33:35 2019, gautam, Update, CDS, Timing issues still persist gpstimeSync.pngScreenshot_from_2019-01-09_17-56-58.png
Summary:

The gps time mismatch between /proc/gps and gpstime seems to be resolved. However, the 0x4000 DC errors still persist. It is not clear to me
why.
          Reply  Fri Jan 4 10:25:19 2019, Jon, Omnistructure, VAC, N2 line valved off 
Yes, for TP2 and TP3. They both have a small vent valve that opens automatically on shutdown.




Quote:



Independent question: Are all the turbo forelines vented automatically? We manually did it for the main roughing
    Reply  Thu Mar 21 18:36:59 2019, Jon, Omnistructure, Upgrade, Vacuum Controls Switchover Completed 40m_Vacuum_Acromag_Channels_20190321.pdf
Updated vac channel list is attached. There are several new ADC channels.




Quote:



Hardware & Channel Assignments
Entry  Thu Mar 21 18:09:36 2019, Koji, Update, CDS, db file preparation for acromag c1susaux Screen_Shot_2019-03-21_at_18.06.53.png
I have updated the google doc spreadsheet to indicate the required action for the new dbfile generation. 

There are three types of actions:

1. COPY - Just duplicate the old EPICS db entry. This is for soft channels, calc channels.
Entry  Thu Mar 21 12:46:22 2019, Jon, Update, VAC, More vac controls upgrades 
The vac controls system is going down for migration from Python 2.7 to 3.4. Will advise when it is back up.
    Reply  Thu Mar 21 17:22:52 2019, Jon, Update, VAC, More vac controls upgrades 
I've converted all the vac control system code to run on Python 3.4, the latest version available through the Debian package manager. Note that
these codes now REQUIRE Python 3.x. We decided there was no need to preserve Python 2.x compatibility. I'm leaving the vac system returned to its nominal
state ("vacuum normal + RGA").
Entry  Wed Mar 20 12:31:30 2019, Jon, Update, VAC, Doing vac controls work 
I'm rebooting the IOLAN server to load new serial ports. The interlocks might trip when the pressure gauge readbacks cut out.
    Reply  Wed Mar 20 20:07:22 2019, Jon, Update, VAC, Doing vac controls work 
Work is completed and the vac system is back in its nominal state.




Quote:



I'm rebooting the IOLAN server to load new serial ports. The interlocks might trip when the pressure gauge
Entry  Mon Mar 18 20:22:28 2019, gautam, Update, ALS, ALS stability test 
I'm running a test to see how stable the EX green lock is. For this purpose, I've left the slow temperature tuning servo on (there is a 100 count
limiter enabled, so nothing crazy should happen).
Entry  Mon Mar 18 18:10:14 2019, Koji, Summary, General, Task items and priority 
[Gautam/Chub/Koji] ~ Mini discussion

Maintenance / Upgrade Items

(Priority high to low)
Entry  Sun Mar 17 21:06:17 2019, Anjali, Update, ALS, Amplifier characterisation Gain_measurement.pdfAmplifier_gain.pdfnoise_measurement.pdfnoise_characterisation.pdf
The goal was to characterise the new amplifier (AP1053). For a practice, I did the characterisation of the old amplifier.This test is similar to that
reported in Elog ID 13602.


Attachment #1 shows the schematic of the setup for gain characterisation and Attachment #2 shows the results of gain characterisation. 
The
Entry  Sun Mar 17 13:35:39 2019, Anjali, Update, ALS, Power splitter characterization Measurement_setup.pdfTotal_loss.pdfAmplitude_unbalance.pdfPhase_unbalance.pdf
We characterized the power splitter ( Minicircuit- ZAPD-2-252-S+). The schematic of the measurement setup is shown in attachment #1. The network/spectrum/impedance
analyzer (Agilent 4395A) was used in the network analyzer mode for the characterisation. The RF output is enabled in the network analyser mode. We used
an other spliiter (Power splitter #1) to splitt the RF power such that one part goes to the network analzer and the other part goes to the power spliiter
Entry  Thu Mar 14 23:26:47 2019, Anjali, Update, ALS, ALS delay line electronics test_setup_ALS_delay_line_electronics.pdf
Attachment #1 shows the schematic of the test setup. Signal generator (Marconi) was used to supply the RF input. We observed the IF output in
the following three test conditions.


Observed the spectrum with FM modulation (fcarrier of 40 MHz and fmod of 221 Hz )- a peak at 221 Hz was observed.
Observed
Entry  Fri Mar 8 08:40:26 2019, Anjali, Configuration, , Frequency stabilization of 1 micron source Homodyne_setup.png
The schematic of the homodyne configuration is shown below.

Following are the list of components




Item
Quantity
Availability
Part
Entry  Mon Jul 9 17:29:28 2018, Udit Khandelwal, Summary, Tip-TIlt, TipTilt mirror holder final changes d_COM.png1-1.png1-2.png2-1.png
Final Summary of changes to mirror holder in Tip-Tilt holder.

Determining minimum range for Side Clamp:

1. The initial distance b/w wire-release point and mirror assembly COM = 0.265 mm
    Reply  Tue Mar 5 15:56:27 2019, gautam, Summary, Tip-TIlt, Discussion points about TT re-design 
Chub, Koji and I have been talking about Udit's re-design. Here are a few points that were raised. Chub/Koji can add to/correct where necessary.
Summary is that this needs considerable work before we can
order the parts for a prototype and characterize it. I think the requirements may be stated as:
Entry  Sun Mar 3 14:16:31 2019, gautam, Update, IOO, Megatron hard-rebooted 
IMC was not locked for the past several hours. Turned out MC autolocker was stuck, and I could not ssh into megatron because it was in some unresponsive
state. I had to hard-reboot megatron, and once it came back up, I restarted the MCautolocker, FSS slow servo and nds2 processes. IMC re-locked immediately.

I was pulling long stretches of OSEM data from the NDS2 server (megatron) last night, I wonder if this flakiness is connected. Megatron is still
Entry  Sat Mar 2 14:19:35 2019, gautam, Update, CDS, FSS Slow servo gains not burt-ed 
PSL NPRO PZT voltage showed large low frequency (hour timescale) excursions on the control room StripTool trace, leading me to suspect the slow servo
wasn't working as expected. Yesterday evening, I keyed the unresponsive c1psl crate at ~9 PM PST, and had to run the burtrestore to get the PMC locking
working. I must have pressed the wrong button on burtgooey or something, because all the FSS_SLOW channels were reset to 0. What's
Entry  Wed Feb 27 21:34:21 2019, gautam, Update, General, Suspension diagnosis 
In my effort to understand what's going on with the suspensions, I've kicked all the suspensions and shutdown the watchdogs at 1235366912. PSL
shutter is closed to avoid trying to lock to the swinging cavity. The primary aims are


To see how much the resonant peaks have shifted w.r.t. the database,
Entry  Mon Feb 25 20:20:07 2019, Koji, Update, SUS, DIN 41612 (96pin) shrouds installed to vertex SUS coil drivers P_20190222_175058.jpg
The forthcoming Acromag c1susaux is supposed to use the backplane connectors of the sus euro card modules.

However, the backplane connectors of the vertex sus coil drivers were already used by the fast switches (dewhitening) of c1sus.

Our plan is to connect the Acromag cables to the upper connectors, while the switch channels are wired to the lower connector by soldering jumper
Entry  Wed Feb 20 18:26:05 2019, gautam, Update, IOO, IPPOS recommissioned IMG_7330.JPGScreenshot_from_2019-02-20_19-43-27.png
I've suspected that the TTs are drifting significantly over the course of the last couple of days, because despite repeated alignment efforts, the
AS beam spot has drifted off the center of the camera view. I tried looking at IPPOS, but found that there was no data. Looking at the table, the QPD was
turned backwards, and the DAQ cable wasn't connected (neither at the PD end, nor at 1Y2, where instead, a cable labelled "Spare QPD" was
    Reply  Fri Feb 22 12:19:46 2019, gautam, Update, IOO, TT coil driver Vmon 
To debug the issue of the suspected drifting TTs further, I temporarily hijacked CH0-CH8 of ADC1 in the c1lsc expansion chassis, and connected the "MON"
outputs of the coil drivers (D010001) to them via some DB9 breakouts. The idea is to see if the problem
is electrical. We should see some  slow drift in the voltage to the TTs correlated with the spot walking off the IPPOS QPD. From the wiring
Entry  Tue Feb 19 22:52:17 2019, gautam, Update, ASS, Y arm clipping doubtful overheadComparison.pdfclipping.pdfrearComparison.pdf
In an earlier elog, I had claimed that the suspected clipping of the cavity axis in the Y
arm was not solved even after shifting the heater. I now think that it is extremely unlikely that there is still clipping due to the heater.
Nevertheless, the ASS system is not working well. Some notes:
Entry  Tue Feb 19 19:03:18 2019, rana, Update, Computers, Martian router -> WPA2 
I have swapped our martian router's WiFi security over to WPA2 (AES) from the previous, less-secure, system. Creds are in the secrets-40-red.
Entry  Mon Feb 11 19:53:59 2019, gautam, Summary, Loss Measurement, Loss measurement setup DQcheck.pdfinitialData.pdf
To measure the Y-arm loss, I decided to start with the classic reflectivity method. To prepare for this measurement, I did the following:


Placed a PDA 520 in the AS beam path on the AS table.
Centered AS beam on above PDA 520.
Monitored signal from
PDA520 and the MC transmission simultaneously in the single-bounce from ITMY config (i.e. all other optics were misaligned). Convinced myself that variations
    Reply  Tue Feb 12 18:00:32 2019, gautam, Summary, Loss Measurement, Loss measurement setup 
Another arm loss measurement started at 6pm.
       Reply  Tue Feb 12 22:59:17 2019, gautam, Summary, Loss Measurement, Y arm loss segmented.pdfconsolidated.pdf
Summary:

There are still several data quality issues that can be improved. I think there is little point in reading too much into this until some of the
problems outlined below are fixed and we get a better measurement.
          Reply  Wed Feb 13 02:28:58 2019, gautam, Summary, Loss Measurement, Y arm loss systUnc.pdf
Attachment #1 shows estimated systematic uncertainty contributions due to 


ITM transmission by +/- 0.01 % about the nominal value of 1.384 %
ETM transmission of +/- 3 ppm about the nominal value of
13.7 ppm
Mode matching efficiency into the cavity by +/- 5% about the nominal value of 92%.


             Reply  Thu Feb 14 21:29:24 2019, gautam, Summary, Loss Measurement, Inferred Y arm loss  modelPerturb.pdfposterior_modelParams.pdfposterior_Loss.pdf
Summary:

From the measurements I have, the Y arm loss is estimated to be 58 +/- 12 ppm. The quoted
values are the median (50th percentile) and the distance to the 25th and 75th quantiles. This is significantly worse than the ~25 ppm number Johannes had
                Reply  Sun Feb 17 17:35:04 2019, gautam, Summary, Loss Measurement, Inferred X arm loss  DQcheck_XARM.pdfconsolidated.pdfposterior_modelParams_XARM.pdfposterior_Loss_XARM.pdf
Summary:

To complete the story before moving on to ALS, I decided to measure the X arm loss. It is estimated to be 20
+/- 5 ppm. This is surprising to say the least, so I'm skeptical - the camera image of the ETMX spot when
Entry  Fri Feb 15 20:07:02 2019, Jon, Update, VAC, Updated vacuum punch list 
While working on the vac controls today, I also took care of some of the remaining to-do items. Below is a summary of what was done, and what
still remains.

Completed today


TP2/3 overcurrent interlock raised from 1 to 1.2 A. This was tripping during normal operation as the pump
    Reply  Fri Feb 15 21:15:42 2019, gautam, Update, VAC, dd backup of c1vac made 

Connected one of the solid-state drives to c1vac. It was /dev/sdb.
Formatted the drive using sudo mkfs -t ext4 /dev/sdb
 Mounted
it as /mnt/backup using sudo mount /dev/sdb /mnt/backup
Started a tmux session for the dd, called DDbackup
Started the dd backup
using  sudo dd if=/dev/sda of=/dev/sdb bs=64K conv=noerror,sync
Backup completed in 719 seconds: need to
Entry  Fri Feb 15 11:58:45 2019, Jon, Update, VAC, Vac system is back up 
The problem encountered with the vac controls was indeed resolved via the recommendation
I posted yesterday. The Acromags had gone into a protective state (likely caused by an electrical transient in one of the signals) that could only be cleared
by power cycling the units. After resetting the system, the main volume pressure dropped quickly and is now < 2e-5 torr, so
    Reply  Fri Feb 15 18:41:18 2019, rana, Update, VAC, Vac system is back up 
If the acromags lock up whenever there is an electrical spike, shouldn't we have them on UPS to smooth out these ripples? And wasn't the idea
to have some handshake/watchdog system to avoid silently dying computers?




Quote:


       Reply  Fri Feb 15 19:50:09 2019, rana, Update, VAC, Vac system is back up 
The acromags are on the UPS. I suspect the transient came in on one of the signal lines. Chub tells me he unplugged one of the signal cables from the
chassis around the time things died on Monday, although we couldn't reproduce the problem doing that again today.

In this situation it wasn't the software that died, but the acromag units themselves. I have an idea to detect future occurrences using
Entry  Mon Feb 4 20:13:39 2019, gautam, Update, SUS, ETMY suspension oddness ETMY_sensors_1_Feb_2019_2230_PST.pdfETMY_UL.pdfETMY_sensors_timeDomain.pdf
I looked at the free-swinging sensor data from two nights ago, and am struggling with the interpretation. 

[Attachment #1] -
Fine resolution spectral densities of the 5 shadow sensor signals (y-axis assumes 1ct ~1um). The puzzling feature is that there are only
    Reply  Thu Feb 7 19:34:18 2019, gautam, Update, SUS, ETMY suspension oddness ETMY_sensors.pdfpostDiag.pdf
I did some tests of the electronics chain today.


Drove a sine-wave using awggui to the UL-EXC channel, and monitored using an o'scope and a DB25 breakout board at J1 of the satellite
box, with the flange cable disconnected - while driving 3000 cts amplitude signal, I saw a 2 Vpp signal on the scope, which is consistent with expectations.
Checked
       Reply  Fri Feb 8 20:48:52 2019, gautam, Update, LSC, IFO recovery IMG_7307.JPG
Several housekeeping tasks were carried out today in preparation for the Y-arm loss measurement.


The mess around the OMC rack was cleared a bit. The vertex laptop paola now lives there, instead of on the ITMY optical table.
Centering
of beam on AS photodiodes on AS table (starting from the first optic in this path at the exit point from the vacuum), adjusted AS camera to bring the spot
          Reply  Mon Feb 11 15:41:49 2019, gautam, Update, LSC, TRY 60 Hz solved - but clipping persists 
Rich came by the 40m to photocopy some pages from Hobbs, and saw me working on the 60 Hz hunting. As I suspected, the problem was being generated in
the D040060. This board receives the photodiode signal single-ended, but has a different power ground than the photodiode (even though the PD is plugged
into a power strip that claims to come from 1Y4). The mechanism is not entirely clear - the presence of these 60 Hz features seemed to be dependent on
             Reply  Mon Feb 11 16:38:34 2019, gautam, Update, LSC, ETMY OL calibration updated OL_calib_ETMY_PERROR.pdfOL_calib_ETMY_YERROR.pdf
Since we changed the HeNe, I updated the calibration factors, and accepted the changes in the SDF.




DOF
OLD [urad/ct]
NEW [urad/ct]




PITCH
140
             Reply  Fri Feb 15 18:42:57 2019, gautam, Update, LSC, TRY 60 Hz solved  IMG_7323.JPG
A more permanent fix than a crocodile clip was implemented. Should probably look to do this for the X end unit as well.
Entry  Thu Feb 14 23:14:12 2019, gautam, Update, CDS, c1rfm errors 
The pressure is still 2e-4 torr according to CC1 so I thought I'd give ASS debugging a go tonight. But the arm transmission signal isn't coming
through to the LSC model from the end PDs - so a resurfacing of this problem. Rebooting the
sender model, c1scy, did not fix the problem. Moreover, c1susaux is dead. The last time I rebooted it, ITMY got stuck so I'm not going to attempt
    Reply  Fri Feb 15 15:22:08 2019, gautam, Update, CDS, c1rfm errors persist Screenshot_from_2019-02-15_15-21-47.png
I restarted c1scy,  c1rfm (so both sender and receiver models were cycled) and power-cycled the c1iscey and 
Entry  Thu Feb 14 15:37:35 2019, gautam, Update, VAC, Vacromag failure Screenshot_from_2019-02-14_15-40-36.pngIMG_7320.JPGScreenshot_from_2019-02-14_20-43-15.png
[chub, gautam]

Sumary:

One of the XT1111 units (XT1111a) in the new vacuum system has malfunctioned. 
    Reply  Thu Feb 14 18:16:24 2019, Jon, Update, VAC, Vacromag failure 
I sent Gautam instructions to first try stopping the modbus service, power cycling the Acromag chassis, then restarting the service.
I've seen the Acromags go into an unresponsive state after a strong electrical transient or shorted signal wires, and the unit has to be power cycled
to be reset.
Entry  Thu Feb 7 17:27:53 2019, Koji, Summary, Tip-TIlt, Five FiveNine Optics Optics delivered 
5 PR3/SR3 optics from FiveNine Optics were delivered. The data sheets were scanned and uploaded to the following wiki page. https://wiki-40m.ligo.caltech.edu/Aux_Optics
    Reply  Fri Feb 8 00:20:56 2019, gautam, Summary, Tip-TIlt, Five FiveNine Optics Optics delivered 
They have been stored on the 3rd shelf from top in the clean optics cabinet at the south end. EX




Quote:



5 PR3/SR3 optics from FiveNine Optics were delivered. The data sheets were scanned and uploaded to the following
       Reply  Fri Feb 8 20:35:57 2019, gautam, Summary, Tip-TIlt, Coating spec specRefl.pdfAoIscan.pdf
[Attachment #1]: Computed spectral
power transmissivity (according to my model) for the coating design at a few angles of incidence. Behavior lines up well with what FNO measured, although
I get a transmission that is slightly lower than measured at 45 degrees. I suspect this is because of slight changes in the dispersion relation assumed
Entry  Fri Feb 8 02:00:34 2019, gautam, Update, SUS, ITMY has tendency of getting stuck Screenshot_from_2019-02-08_02-04-22.png
As it turns out, now ITMY has a tendency to get stuck. I found it MUCH more difficult to release the optic using the bias jiggling technique,
it took me ~ 2 hours. Best to avoid c1susaux reboots, and if it has to be done, take precautions that were listed for ITMX - better yet, let's swap
out the new Acromag chassis ASAP. I will do the arm locking tests tomorrow.
Entry  Wed Jan 9 20:01:25 2019, Jon, Update, VAC, Second pumpdown completed Screenshot_from_2019-01-09_20-00-39.pngIMG_3088.jpg
[Jon, Koji, Chub, Gautam]

Summary

The second pumpdown with the new vacuum system was completed successfully today. A time history is
attached below.
    Reply  Thu Jan 10 10:23:46 2019, gautam, Update, VAC, overnight leak rate OvernightLeak.png
Overnight, the pressure increased from 247 uTorr to 264 uTorr over a period of 30000 seconds. Assuming an IFO volume of 33,000 liters, this corresponds
to an average leak rate of ~20 uTorr L / s.
It'd be interesting to see how this compares with the spec'd leak rates of the Viton O-ring seals and valves/ outgassing rates. The two channels
       Reply  Sat Feb 2 21:53:24 2019, Koji, Update, VAC, overnight leak rate Screen_Shot_2019-02-02_at_21.49.33.png
The pressure of the main volume increased from ~1mtorr to 50mtorr for the past 24 hours (86ksec). This rate is about x1000 of the reported number on
Jan 10. Do we suspect vacuum leak?




Quote:


          Reply  Sun Feb 3 15:15:21 2019, gautam, Update, VAC, overnight leak rate Jan10_data.pngFeb1_data.png
I looked into this a bit today. Did a walkthrough of the lab, didn't hear any obvious hissing (makes sense, that presumably would signal a much larger
leak rate).

Attachment #1: Data from the
             Reply  Sun Feb 3 20:52:34 2019, Koji, Update, VAC, overnight leak rate 
We can pump down (or vent) annuli. If this is the leak between the main volume and the annuli, we will be able to see the effect on the leak rate. If
this is the leak of an  outer o-ring, again pumping down (or venting) of the annuli should temporarily decrease (or increase) the leak rate..., I
guess. If the leak rate is not dependent on the pressure of the annuli, we can conclude that it is internal outgassing.
                Reply  Mon Feb 4 12:23:24 2019, gautam, Update, VAC, pumpdown 83 - leak tests PD83.png
[koji, gautam]

As planned, we valved off the main volume and the annuli from the turbo-pumps at ~730 PM PST. At this time, the main volume pressure was 30 uTorr.
It started rising at a rate of ~200 uTorr/hr, which translates to ~5 mtorr/day, which is in the ballpark of what Steve said is "normal". However,
                   Reply  Tue Feb 5 10:11:30 2019, gautam, Update, VAC, leak tests complete, pumpdown 83 resumed Annuli.pngMainVol.png
I guess we forgot to close V5, so we were indeed pumping on the ITMY and ETMY annuli, but the other three were isolated suggest a leak rate of ~200-300
mtorr/day, see Attachment #1 (consistent with my earlier post).

As for the main volume - according to CC1, the pressure saturates at ~250 uTorr and is stable, while the Pirani P1a reports ~100x that pressure.
                      Reply  Tue Feb 5 19:30:14 2019, gautam, Update, VAC, Main volume at 20 uTorr PD83.png
Pumpdown looks healthy, so I'm leaving the TPs on overnight. At some point, we should probably get the RGA going again. I don't know that we
have a "reference" RGA trace that we can compare the scan to, should check with Steve. The high power (1 W) beam has not yet been sent into the
vacuum, we should probably add the interlock condition that shuts off the PSL shutter before that.
                         Reply  Thu Feb 7 13:55:25 2019, gautam, Update, VAC, RGA turned on 
[chub, steve, gautam]

Steve came by the lab today. He advised us to turn the RGA on again, now that the main volume pressure is < 20 uTorr. I did this by running
the RGAset.py script on c0rga - the temperature of the unit was 22C in the morning, after ~3 hours of the filament being turned on, the temperature has
                            Reply  Thu Feb 7 19:28:46 2019, gautam, Update, VAC, IFO recovery 
[rana, gautam]

The full 1 W is again being sent into the IMC. We have left the PBS+HWP combo installed as Rana pointed out that it is good to have polarization
control after the PMC but before the EOM. The G&H mirror
Entry  Wed Feb 6 10:07:23 2019, Chub, Update, , pre-construction inspection 
The Central Plant building will be undergoing seismic upgrades in the near future.  The adjoining north wall along the Y arm will be the first to
have this work done, from inside the Central Plant.  Project manager Eugene Kim has explained the work to me and also noted our concerns.  He
assured me that the seismic noise from the construction will be minimized and we will always be contacted when the heaviest construction is to be done.
Entry  Tue Feb 5 10:22:03 2019, chub, Update, , oil added to RP-1 & 3 
I added lubricating oil to roughing pumps RP1 and RP3 yesterday and this morning.  Also, I found a nearly full 5 gallon jug of grade 19 oil in the
lab.  This should set us up for quite a while.  If you need to add oil the the roughing pumps, use the oil in the quart bottle in the flammables
cabinet.  It is labeled as Leybold HE-175 Vacuum Pump Oil.  This bottle is small enough to fill the pumps in close quarters.
Entry  Tue Jan 15 10:52:38 2019, gautam, Update, SUS, EY door opened 
[chub, bob, gautam]

We took the heavy door off the EY chamber at ~930am.

Chamber work:
    Reply  Tue Jan 15 15:49:47 2019, gautam, Update, SUS, EY door opened EY_OSEMs.png
While restoring OSEMs on ETMY, I noticed that the open voltages for the UR and LL OSEMs had significantly (>30%) changed from their values from ~2
years ago. The fact that it only occurred in 2 coils seemed to rule out gradual wear and tear, so I looked up the trends from Nov 25 - Nov 28 (Sundance
visited on Nov 26 which is when we removed the cage). Not surprisingly, these are the exact two OSEMs that show a decrease
       Reply  Sat Jan 19 15:33:18 2019, gautam, Update, SUS, ETMY OSEMs faulty Screen_Shot_2019-01-19_at_3.32.35_PM.pngETMY_sensors_1231832635.pdf
After diagnosis with the tester box, as I suspected, the fully open DC voltages on the two problematic channels, LL and UR, were restored once I replaced
the LM6321 ICs in those two channel paths. However, I've been puzzled by the inability to turn on the Oplev loops on ETMY. Furthermore, the DC bias
voltages required to get ETMY to line up with the cavity axis seemed excessively large, particularly since we seemed to have improved the table levelling.
          Reply  Tue Jan 22 20:36:53 2019, gautam, Update, SUS, ETMY OSEMs faulty 
Short update on latest Satellite box woes.


I checked the resistance of all 5 OSEM coils on ETMY using a DB25 breakout board and a multimeter - all were between 16-17 ohms (mesured from the cable to the Vacuum flange), which I think
             Reply  Wed Jan 23 12:39:18 2019, gautam, Update, SUS, EY chamber work 6x
While Chub is making new cables for the EY satellite box...


I removed the unused optic on the NW corner of the EY table. It is stored
in a clean Al-foil lined plastic box, and will be moved to the clean hardware section of the lab (along the South arm, south of MC2 chamber).
Checked
                Reply  Wed Jan 23 23:12:44 2019, gautam, Update, SUS, Prep for FC cleaning IY_level_before.pdf
In preparation for the FC cleaning, I did the following:


Set up mini-cleanroom at EY - this consists of the mobile HEPA unit put up against the chamber door, with films draped around the setup.
After
double-checking the table leveling, I EQ-stopped ETMY and moved it to the NE corner of the EY table, where it will be cleaned.
Checked leveling
                   Reply  Thu Jan 24 15:32:31 2019, gautam, Update, SUS, Y arm cavity side first contact applied Yarm_FC.pdfOSEMfilter.png
EY:


A clean cart was setup adjacent to the HEPA-enclosed mini cleanroom area (it cannot be inside the mini cleanroom, because of lack of
space). 
The FC tools (first contact, acetone, beakers, brushes, PEEK mesh, clean scissors, clean tweezers, Canon camera, green flashlight)
                      Reply  Tue Jan 29 22:12:40 2019, gautam, Update, SUS, Alignment prep 
Since we may want to close up tomorrow, I did the following prep work:


Cleaned up Y-end suspension eleoctronics setup, connected the Sat Box back to the flange

The OSEMs are just sitting on
the table right now, so they are just seeing the fully open voltage
Post filter insertion, the four face OSEMs report ~3-4% lower open-voltage
                         Reply  Wed Jan 30 11:54:24 2019, gautam, Update, SUS, More alignment prep IMG_5958.JPGIMG_5962.JPG
[chub, gautam]


ETMY cage was wiped down

Targeted potential areas where dust could drift off from and get attracted to a charged HR surface
These
areas were surprisingly dusty, even left a grey mark on the wipe [Attachment
                            Reply  Wed Jan 30 19:25:40 2019, gautam, Update, SUS, Xarm cavity alignment Xarm.pngXarm_IR.png
Squishing cables at the ITMX satellite box seems to have fixed the wandering ITM that I observed yesterday - the sooner we are rid of these evil connectors
the better.

I had changed the input pointing of the green injection from EX to mark a "good" alignment of the cavity axis, so I used the green
                               Reply  Fri Feb 1 01:24:06 2019, gautam, Update, SUS, Almost ready for pumpdown tomorrow 
[koji, chub, jon, rana, gautam]

Full story tomorrow, but we went through most of the required pre close-up checks/tasks (i.e. both arms were locked, PRC and SRC cavity flashes
were observed). Tomorrow, it remains to 
                                  Reply  Fri Feb 1 13:16:50 2019, gautam, Update, SUS, Pumpdown 83 underway 
[chub, bob, gautam]


Steps described in previous elog were carried out
EY heavy door was put on at about 1130am.
Pumpdown commenced
at ~noon. We are going down at ~3 torr/min.
                                     Reply  Fri Feb 1 21:52:57 2019, gautam, Update, SUS, Pumpdown 83 underway 
[jon, koji, gautam]


IFO is at ~1 mtorr, but pressure is slowly rising because of outgassing presumably (we valved off the turbos from the main volume)
Everything
went smooth -

760 torr to 500 mtorr took ~7 hours (we deliberately kept a slow pump rate)
TP3 current was found to rise above
                                  Reply  Fri Feb 1 14:44:14 2019, gautam, Update, SUS, Y arm FC cleaning and reinstall IMG_5974.JPGIMG_5986.JPGIMG_5992.JPG
[Attachment #1]: ITMY HR face after
cleaning. I determined this to be sufficiently clean and re-installed the optic.

[Attachment #2]: ETMY
    Reply  Wed Jan 16 16:25:25 2019, gautam, Update, SUS, Yarm locked Yarm_locked.png
[chub, gautam]

Summary:

Y arm was locked at low power in air.
       Reply  Fri Jan 18 21:34:18 2019, gautam, Update, SUS, Unused optic on EY table IMG_5408.JPG
Does anyone know what the purpose of the indicated optic in Attachment #1 is? Can we remove it? It will allow a little more space around the elliptical reflector...
          Reply  Sat Jan 19 05:07:45 2019, Koji, Update, SUS, Unused optic on EY table 
I don't think it was used. It is not on the diagram too. You can remove it.
Entry  Thu Jan 24 22:55:50 2019, gautam, Update, Electronics, Satellite box S/N 102 investigation IMG_7294.JPGD961289-B2.pdf
I had taken Satellite box S/N 102, from the SRM suspension, down to the Y-end as part of debugging. However, at some point, I stopped getting readbacks
from the shadow sensor PDs, even with the Sat. Box tester hooked up (so as to rule out anything funky with the actual OSEMs). Today evening, I did a more
systematic investigation. Schematic with component references is here.
    Reply  Tue Jan 29 17:19:16 2019, gautam, Update, Electronics, Satellite box S/N 105 repaired IMG_7301.JPG
[chub, koji, gautam]

Attachment #1 shows the signal
routing near the Satellite box. Somehow, the female 64 pin IDC connector that brings the signals from the coil driver board wasn't mating well with
Entry  Tue Jan 29 16:12:21 2019, Chub, Update, ,  
The foam in the cable tray wall passage had been falling on the floor in little bite-sized pieces, so I investigated and found a fiber cable that had
be chewed/clawed through.  I didn't find any droppings anywhere in the 40m, but I decided to bait an un-set trap and see if we'd find activity
around it. There has been none so far.  If there is still none tomorrow, I will move the trap and keep looking for signs of rodentia.  At the
Entry  Wed Jan 23 18:11:56 2019, gautam, Update, Electronics, Ethernet Power Strip IP conflict 
For the last week, I noticed that I was unable to turn the EY chamber illuminator on using the remote python scripts. This was turning out to be really
annoying, having to turn the light on/off manually. Today, I looked into the problem and found that there is a conflict in the IP addresses of the EY Ethernet
Strip (which Chas assigned a static IP but did not include detailed procedures for
    Reply  Fri Jan 25 12:49:53 2019, gautam, Update, Electronics, Ethernet Power Strip IP conflict resolved 
To avoid the annoying excercise of having to manually toggle the illuminators, I solved the IP conflict. Made a wiki
page for the ethernet power strips since the documentation was woeful (the way the power strips are mounted in the racks, you can't even see the
manufacturer/model/make). All chamber illuminators can now be turned on/off by the MEDM scripts 
Entry  Fri Jan 18 17:44:14 2019, gautam, Update, VAC, Pumping on RGA volume CC4.png
Steve came by the lab today, and looked at the status of the upgraded vacuum system. He recommended pumping on the RGA volume, since it has not been
pumped on for ~3 months on account of the vacuum upgrade. The procedure (so we may script this operation in the future) was:


Start with the pumpspool completely isolated from the main IFO volume.
Open V5, pump down the section between V5 and VM3.
    Reply  Tue Jan 22 20:45:21 2019, gautam, Update, VAC, New N2 setup 
The N2 ran out this weekend (again no reminder email, but I haven't found the time to setup the Python mailer yet). So all the valves Steve and I
had opened, closed (rightly so, that's what the interlocks are supposed to do). Chub will post an elog about the new N2 valve setup in the Drill-press
room, but we now have sufficient line pressure in the N2 line again. So Chub and I re-opened the valves to keep pumping on the RGA.
Entry  Sun Jan 20 23:41:00 2019, Jon, Omnistructure, VAC, Notes on vac serial comm, adapter wiring Jon_wiring_notes.tar.gz
I've attached my handwritten notes covering all the serial communications in the vac system, and the relevant wiring for all the adapters, etc. I'll
work with Chub to produce a final documentation, but in the meantime this may be a useful reference.
Entry  Fri Jan 18 15:34:37 2019, gautam, Update, Thermal Compensation, Elliptical reflector part number 
Nobody documented this, but here is the part number with mechanical drawings of the elliptical reflector installed at EY: Optiforms
E180. Heater is from Induceramics,
but I can't find the exact part which matches the dimensions of the heater we have (diameter = 3.8mm, length = 30mm), perhaps it's a custom part?
Entry  Mon Jan 23 15:16:52 2017, gautam, Update, Optical Levers, ETMY Oplev HeNe needs to be replaced ETMY_Oplev.pdf
On the control room monitors, I noticed that the IR TEM00 spot was moving around rather a lot in the Y arm. The
last time this happened had something to do with the ETMY Oplev, so I took a look at the 30 day trend of the QPD sum, and saw that it was decaying
steeply (Steve will update with a long term trend plot shortly). I noticed the RIN also seemed rather high, judging by how much the EPICS channel reading
    Reply  Mon Jan 23 17:24:26 2017, Steve, Update, Optical Levers, ETMY Oplev HeNe is running hot ETMY_oplev__lasers.png
ETMY He/Ne 1103P  body temp is  ~45 C The laser was seated loosely  in the V-mount with black rubber padding.

The enclosure has a stinky plastic smell from this black plastic. This laser was installed on Oct 5, 2016 See 1 year plot.

Oplev servo turned off. Thermocouple attached to the He/Ne
       Reply  Tue Jan 24 17:52:15 2017, Craig, Update, Optical Levers, ETMY Oplev HeNe is replaced 6x
Steve, Craig, Gautam

Today Steve replaced the ETMY He/Ne sr P919645 OpLev laser with sr P947049 and Craig realigned it using a new AR coated lenses.

Attached are the RIN of the OpLev QPD Sum channels.  The ETMY OpLev RIN is much lower than when
          Reply  Wed Mar 1 08:28:04 2017, Steve, Update, Optical Levers, oplev laser RIN RIN_1103P.pngRIN_HeNe.png
Gautam and Steve,

New JDSU 1103P HeNe oplev laser RIN was measured on the SP table with cover on.

This is the beginning of an effort to improve oplev laser noise.
             Reply  Thu Mar 2 13:59:04 2017, Steve, Update, Optical Levers, oplev laser RIN 1103P@2d.png
The laser got much better at low frequency as it warmed up. This laser is almost as good as the electronics?

Dark noise cal was the same today as it was 2 days ago.

 
                Reply  Thu Mar 2 17:58:45 2017, rana, Update, Optical Levers, oplev laser RIN 
This measurement looks bogus - the difference between dark and not dark is not significant enough to believe. Need to figure out how to match better
into the ADC range.
                   Reply  Fri Mar 3 17:24:21 2017, Steve, Update, Optical Levers, oplev laser RIN 3march17.pdf
Corrected oplev laser RIN plot at day 3

RXA:


to measure RIN, the lever arm should be really short, not long.
                      Reply  Wed Mar 8 15:28:37 2017, Steve, Update, Optical Levers, oplev laser RIN RIN.jpgRIN_1103P_rotated.pdf
Gautam and Steve,




Quote:



Corrected oplev
                      Reply  Mon Apr 10 09:49:32 2017, Steve, Update, Optical Levers, oplev laser RIN test planning 
We are planning to test 3 identical 1103Ps RIN with  continous temp monitoring and control later.

Selected  temp sensor   Platinum RTD 1PT100KN1515CLA  
or           RTD-830  
                         Reply  Mon Apr 10 14:21:57 2017, rana, Update, Optical Levers, oplev laser RIN test planning 
I'm suspicious of this temperature sensor comparison. Usually, what they mean by accuracy is not the same as what we mean. I would not buy these
yet. How about we just use what Caryn used several years ago (elog
search) ?
       Reply  Tue May 30 13:36:58 2017, Steve, Update, Optical Levers, ETMY Oplev HeNe is replaced oplevETMY120d.png
Finally I reallized what is killing the ETMY oplev laser. Wrong  power supply,
it  was driving the HeNe laser by 600V higher voltage than recommended. Power supply 101T-2300Vdc replaced by 101T-1700Vdc ( Uniphase model 1201-1,
sn 2712420 )
          Reply  Tue Jan 15 18:16:00 2019, gautam, Update, Optical Levers, ETMY Oplev HeNe needs replacement OLRIN.pdfOLsums.png
Perhaps the ETMY Oplev HeNe is also giving up - the power has fallen by ~30% over 1 year (Attachment #2), nearly twice as much as ETMX but the RIN spectrum
(Attachment #1, didn't even need to rotate it!) certainly seems suspicious. Some "nominal" RIN levels for HeNes can be found earlier
in this thread. I can't close any of the EY Oplev loops in this condition. I'll double check to make sure I'm routing the right beam onto the
             Reply  Fri Jan 18 12:52:07 2019, gautam, Update, Optical Levers, BS/PRM Oplev HeNe replaced OLRIN_20190118.pdf
I replaced the BS/PRM Oplev HeNe with one of the heads from the SP table where Steve was setting up the OL RIN/pointing noise experiment. The old one
was dead. The new one outputs 3.2 mW of power, I've labelled it with this number, serial number and date of replacement. The beam comes out of the
vacuum chamber for both the BS and PRM, and the RIN spectra (Attachment #1) look alright. The calibration into urad and loop gains possibly have to be
Entry  Tue Jan 15 15:27:36 2019, gautam, Update, General, Lasers and other stuff turned back on 
VEA is now a laser hazard area as usual, several 1064nm lasers in the lab have been turned back on. Apart from this


the IFR was reset to the nominal modulation settings of +13dBm output at 11.066209 MHz (this has to be done manually following each power
failure).
The temeprature control unit for the EY doubling oven PID control was turned back on.
The EY Oplev HeNe was turned back
Entry  Mon Jan 14 10:06:53 2019, gautam, Update, VAC, Vent 82 complete Vent82Summary.png
[chub, gautam]


IFO pressure was ~2e-4 torr when we started, on account of the interlock code closing
all valves because the N2 line pressure dropped below threshold (<65 psi)
Chub fixed the problem on the regulator in the drill-press area
Entry  Fri Jan 11 16:38:57 2019, gautam, Update, General, Some alignment checks pd82.pngLSC_X.png
The pumpdown seems to be progressing smoothly, so I think we are going to stick with the plan decided on Wednesday, and vent the IFO on Monday at 8am.
I decided to do some checks of the IFO alignment.

I turned on the PSL again (so goggles are advisable again
Entry  Thu Jan 10 11:32:40 2019, Chub, Update, VAC, Manual valve interfaced with CDS 
Connected the manual gate valve status indicator to the Acromag box this morning.  Labeled the temporary cable (a 50' 9p DSUB, will order a
proper sized cable shortly) and the panel RV2.  
Entry  Tue Jan 8 19:13:39 2019, Jon, Update, Upgrade, Ready for pumpdown tomorrow 
Everything is set for a second pumpdown tomorrow. We'll plan to start pumping after the 1pm meeting. Since the main volume is already at 12
torr, the roughing phase won't take nearly as long this time.

I've added new channels for the TP1 analog readings (current and speed) and for the two N2 tank pressure readings. Chub finished installing
    Reply  Wed Jan 9 11:07:09 2019, gautam, Update, VAC, New Vac channel logging Screenshot_from_2019-01-09_11-08-28.png
Looks like I didn't restart all the daqd processes last night, so the data was not in fact being recorded to frames. I just restarted everything,
and looks like the data for the last 3 minutes are being recorded . Is it reasonable that the TP1 current channel is reporting 0.75A of current draw now, when the pump is off? Also the temperature
Entry  Tue Jan 8 10:27:27 2019, gautam, Update, General, Near-term in-chamber work  
Here is a list of tasks I think we should prioritize for the next two weeks. The idea is to get back to the previous state of being able to do single
arm, PRMI-on-carrier and DRMI locking, before making further changes.

Once the new folding mirrors arrive, I'd like to modify the SRC length to allow locking in the signal-recycled config as opposed to RSE.
Entry  Mon Jan 7 11:54:12 2019, Jon, Configuration, Computer Scripts / Programs, Vac system shutdown 
I'm making a controlled shutdown of the vac controls to add new ADC channels. Will advise when it's back up.
    Reply  Mon Jan 7 19:21:45 2019, Jon, Configuration, Computer Scripts / Programs, Vac system shutdown 
ADC work finished for the day. The vac controls are back up, with all valves CLOSED and all pumps OFF.




Quote:



I'm making a controlled shutdown of the vac controls to add new ADC channels. Will advise when it's back
Entry  Fri Dec 14 22:19:22 2018, Koji, Update, General, Chiara new USB 4TB DIsk 
Edit: It was not 4TB
disk but 6TB disk in fact. (We actually ordered 4TB disk...)

I think the problem of the backup disk was the flaky power supply for the external drive.
    Reply  Sat Dec 15 18:29:53 2018, Koji, Update, General, Chiara new USB 4TB DIsk 
The local backup was done at 18:18 after 11h18m of running.

2018-12-15 07:00:01,699 INFO       Updating backup image
of /cvs/cds
    Reply  Fri Jan 4 15:18:15 2019, Koji, Update, General, Chiara disk clean up and internally mounted P_20190104_143336.jpgP_20190104_143357.jpg
[Koji Gautam]

Took the opprtunity of the power glitch to take care of the disk situation of chiara.

- Unmounted /cvs/cds from nodus. This did not affect the services on nodus as they don't use /cvs/cds
Entry  Fri Jan 4 11:06:16 2019, Jon, Omnistructure, Upgrade, Vac System Punchlist 
The base Acromag vacuum system is running and performing nicely. Here is a list of remaining questions and to-do items we still need to address.

Safety Issues


Interlock for HV supplies. The vac system hosts a binary
EPICS channel that is the interlock signal for the in-vacuum HV supplies. The channel value is OFF when the main volume pressure is in the
ELOG V3.1.3-